Wikipedia Diskussion:Meinungsbilder/Boteinsatz bei toten Links/Vorbereitung

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen

Diese Seite ist ein Archiv der Diskussion zur Vorbereitung des Meinungsbildes. Weitere Beiträge nach dem Start des MB bitte nicht hier, sondern unter Wikipedia Diskussion:Meinungsbilder/Boteinsatz bei toten Links. Vielen Dank.

Initiator gesucht

Ich hab einfach mal was zum Starten geschrieben, hab aber von den technischen Details keine Ahnung. Wer mag die Federführung als Initiator übernehmen? Gestumblindi, Drahreg01, Giftzwerg 88, Mirer, Yotwen, andere Interessierte? --Martina Disk. 07:57, 14. Jul. 2017 (CEST)

Da meine Sichtweisen hier selten mehrheitsfähig sind, denke ich es wäre besser, wenn jemand anderes die Federführung übernähme.
Wichtig fände ich auch die Diskussionen nicht zu sehr ausufern zu lassen (die letzten MB-Versuche machen da wenig Mut) und Trollereien und BNS-Aktionen unbeantwortet zu lassen. Auch das käme wohl nicht gut an und würde zu Manipulationsvorwürfen und weiteren BNS-Aktionen führen. Wenn wir hier z. B. die allgemeine Diskussion führen wollen/müssen, ob Bots gut oder böse sind, dann können wir das MB gleich wieder einstampfen. Dafür bietet ein konkretes MB zu einem Bot nicht den Rahmen und nötig bzw. hilfreich, ist diese Diskussion hier auch nicht.
Die Disks müssen um konkrete Aktionen/Änderungen geführt werden, um auf der Vorderseite jedem einen möglichst einfachen Einblick zu geben, welche Folgen das jeweils hat. So kann jeder einschätzen, welche Änderungen man persönlich möchte und welche nicht (mehr).
Auf die Art würde man für diesen einen Bot eine klare Grenze erkennen können, was gewünscht ist und was nicht. Darauf aufbauend könnte man dann weiterführende Diskussionen (zu Bots im Allgemeinen oder anderen Formen der Archivierung) an anderer Stelle weiterführen. --mirer (Diskussion) 17:50, 14. Jul. 2017 (CEST)
@Martina Nolte: Danke für deine Initiative! Ich werde dieses ziemlich verplante Wochenende kaum dazu kommen, mich wirklich damit zu befassen, trage mich daher jetzt noch nicht ein, stelle mich aber ab nächster Woche gerne als (Co-)Initiator zur Verfügung. Gestumblindi 21:39, 14. Jul. 2017 (CEST)
Prima! Das MB kann locker ein paar Tage warten. Ich wurde gefragt ob ich mithelfe und das tue ich. Aber als Initiator muss umseitig jemand anderes herhalten. --Martina Disk. 21:59, 14. Jul. 2017 (CEST)
Könntest du dir vielleicht vorstellen, Initial-Initiatorin ;-) zu bleiben, bis ich mich nächste Woche eintrage, damit der MB-Entwurf in der Zwischenzeit nicht ganz so initiatorlos und scheinbar unbetreut herumhängt, kaum wurde er angelegt? Und auch danach würde ich dich eigentlich gerne als Co-Initiatorin sehen, wenn du dir das vorstellen könntest, es braucht hier ja nicht nur Kenntnis technischer Details (da blicke ich auch nicht überall durch), sondern vor allem Strukturierungswillen und -fähigkeit :-) Gestumblindi 22:24, 14. Jul. 2017 (CEST)
Initial-Initiatorin, nette Wortschöpfung. Ok, dann also, bis du Zeit hast. Ich muss ja nicht umseitig als Wasauchimmer-Initiatorin stehen, um beim Sortieren mitzuhelfen. --Martina Disk. 06:59, 15. Jul. 2017 (CEST)
@Martina Nolte: Ich habe mich jetzt als Initiator eingetragen, dich aber umseitig noch stehengelassen – einfach immer noch in der Hoffnung, dass du zumindest Co-Initiatorin bleiben magst; wenn nicht, nun, dann nimm deinen Namen eben raus :-) Gestumblindi 23:43, 18. Jul. 2017 (CEST) PS, Vorwarnung: Ich werde am kommenden Wochenende bzw. Freitag bis Montag voraussichtlich wiederum kaum bis gar keine Zeit für dieses MB bzw. die Wikipedia überhaupt finden.
Gestumblindi: Ich bin lieber Unterstützerin. :-)
Ich hoffe, ich komme am Wochenende dazu, ein paar der technischen Informationen über den Bot von weiter unten in den Entwurf einzubauen. Ich hab auch noch ein, zwei weitere Fragen an den Bot-Papa. Ich finde, erst wenn die (derzeitigen) Funktionen und Potenziale des Bots bekannt sind, können wir an den Pro- und Kontraargumenten und an den Vorschlägen zu den Abstimmoptionen arbeiten. --Martina Disk. 05:35, 22. Jul. 2017 (CEST)
PS @ Gestumblindi : Hab mich jetzt doch wieder als Co-Initiatorin einetragen. Ich werd ja vermutlich einen großen Anteil am MB-Entwurf haben; daher ist das dann wohl angemessener. --Martina Disk. 23:10, 22. Jul. 2017 (CEST)
Kurzer Nachtrag hier noch, ich bin hier raus (komplett). Viel Erfolg! --mirer (Diskussion) 03:11, 18. Jul. 2017 (CEST)
@Martina Nolte: Du hast diese Seite angelegt und du warst an der Ausarbeitung des Meinungsbildes stärker beteiligt als ich - es kommt mir daher komisch vor, in der Tabelle auf der MB-Übersichtsseite als alleiniger Initiator zu stehen. Ist es dir recht, wenn ich dich auch dort ergänze, wenn ich nun einen Starttermin (ich würde sagen: den 1. Oktober) eintrage? Gestumblindi 21:49, 17. Sep. 2017 (CEST)
Stimmt. Ja, das ist okay. --Martina Disk. 21:54, 17. Sep. 2017 (CEST)

Die Lösung an der Wurzel packen

Das Problem ist: Irgendwann wird jeder Weblink nicht mehr funktionieren und die ursprüngliche Information anzeigen. Das werden wir auch mit Bots nicht feststellen können, der Klassiker ist, das anstatt des gewünschten Artikels nun eine Standardseite angezeigt wird, z.B. „wir sind umgezogen nach Blabla.com“. Ist eine gültige Seite also keine gemecker vom Bot. Richtig wäre aus meiner Sicht folgendes Vorgehen:

1. Ein Einzelnachweis mit URL wird in der Wikipedia eingefügt

2. Ein Bot (der ruhig auch von der Foundation gebaut wird) macht einen Snapshot der Seite und legt diesen als PDF ab

3. Der Link auf das PDF mit Zeitstempel wird beim Einzelnachweis integriert und ist auch zugänglich wenn sich der originale Weblink geändert hat. Damit ist für den Leser deutlich wo sich die ursprüngliche Information befunden hat, was nach dem Ändern auf den Internetarchive link nur indirekt möglich ist

4. Wir umgehen das Risiko das wir nun eingehen uns 100 % auf das INternet Archiv zu verlassen. Das kann von heute auf morgen geschlossen und eingestellt werden.

Groetjes --Neozoon (Diskussion) 08:20, 14. Jul. 2017 (CEST)

Eine technisch gesehen gar nicht so schlechte Idee. Wenn das aber bedeutet, dass die Inhalte der nicht mehr vorhandenen Seite dann selbstständig durch die Wikipedia verbreitet werden, wirft das urheberrechtliche Fragen auf. Ein Link ist immer in Ordnung, ein Zitat innerhalb der Grenzen des Zitatrechts auch, aber ein Verbreitungsrecht für fremde Inhalte hat die Wikipedia nicht. Das ist schon beim IA ein Problem, warum sollte man es sich dann auch noch selbst ans Bein binden? Drucker (Diskussion) 12:51, 14. Jul. 2017 (CEST)
Mit diesem Vorschlag willst du die Wikipedia zu einem eigenen Internetarchiv umbauen. Das Internetarchiv macht bereits den Snapshot. Mit der Angabe „Abgerufen am“ hat der Link auch einen Zeitstempel. Die Adresse des IA enthält auch immer die ursprüngliche Adresse. Wir machen uns mit diesem Vorschlag die doppelte Arbeit und einen Bot brauchen wir trotzdem. Bei einem PDF lassen sich zudem bestimmte Inhalte nicht darstellen, die das IA problemlos bereithalten kann z. B. interaktive Seiten, skalierbare Grafiken, Video, Sounddateien, Javaskript usw. Bei einem simplen PDF kannst du keinen Link klicken. Man müsste außerdem eine Menge Server mehr bereitstellen, nur um diese zusätzlichen Daten zu verwalten (Resourcen und Geldverschwendung). Das Internetarchiv hat außerdem Seiten archiviert, die bisher noch keiner von uns eingebunden hat. Das ist z. B. von Belang, wenn man einen älteren Artikel aus einer anderen Sprache importiert. Ebenso können wir nicht rückwirkend PDFs von Seiten erstellen, die früher mal anders ausgesehen haben. Wie der Vorredner gesagt hat, können wir die PDFs nicht als Dateien unter freier Lizenz speichern, d. h. für Benutzer wäre es schwer nachvollziehbar, warum die einen Dateien frei nutzbar sind, die anderen aber nicht. Das ist also aus vielen Gründen keine bessere Idee und ohne die Zustimmung der Foundation ist das ohnehin nicht zu machen. --Giftzwerg 88 (Diskussion) 17:31, 14. Jul. 2017 (CEST)
Ich würde den Vorschlag auch nicht hier diskutieren, da er mit dem hier vorgeschlagenen Bot und seinen Möglichkeiten nichts zu tun hat. Das gehört eher zur Projektdiskussion.
Dort kann man dann über Urheberrechte, die Foundation und ihre Ressourcen philosophieren. Konkret wird sich da zeitnah nichts tun, während wir hier einen ganz konkreten Bot relativ zeitnah einen großen Berg Arbeit abarbeiten lassen können. Wie viel er abarbeiten darf (und in welcher Art genau), kann dann die Community bestimmen. --mirer (Diskussion) 17:40, 14. Jul. 2017 (CEST)

Veraltete Daten

Eine archivierte Seite liefert immer nur Informationen vom Datum X. Möglicherweise sind aktuellere Informationen verfügbar, die müssen aber händisch gesucht werden. Das ist regelmäßig bei Umstrukturierungsmaßnamen der Zieldomains der Fall, bei denen Verzeichnisstrukturen geändert werden. Aus einem meiner Bereiche ist GameSpot so ein Fall, die haben vor ein paar Jahren alle ihre Verzeichnisse umstrukturiert, so dass auf einen Schlag alle Verweise auf diese URL tot waren, aber durch händisches Umbiegen der Links recht einfach zu aktualisieren waren. Das ist ausdrücklich kein Argument gegen den Bot, sondern die Bitte um Modifikation: Es muss eine Möglichkeit geben, vor der Änderung des Bots selbst aktiv zu werden, oder zumindest zu erkennen, wo der Bot gewirkt hat. Erster, unausgereifter Vorschlag: Der Giftbot weist weiterhin per Diskmeldung auf tote Links hin. Dadurch taucht der Link auf Wartungsseiten auf. Nach drei Monaten wird der IAB aktiv, ändert den Link, löscht den Giftbot-Hinweis und setzt einen eigenen ein, der den alten Link, den Archivlink sowie, falls vorhanden, die Parameter „titel“ und „zitat“ aus der Vorlage:Internetquelle beinhaltet (die sind immer erster Ansatz für die manuelle Korrektur). Diesen Hinweis sollte jeder, der den Link manuell auf eine aktuelle Nicht-Archiv-Version geprüft hat, löschen dürfen („kein regulärer Diskussionsbeitrag“). Meiner Meinung nach deckt das alle Bedürfnisse meiner „Arbeit“ mit toten Links ab; für andere Bereiche mögen ganz andere Dinge wichtig sein. Viele Grüße, Grueslayer 09:04, 14. Jul. 2017 (CEST)

Benutze http://dispenser.homenet.org/~dispenser/view/Checklinks den Weblink-Checker. Der zeigt dir sofort alle toten Seiten in rot an, auch wenn sie im Artikel einen funktionierenden IA-Link haben, d. h. auch nach Änderungen durch den Bot kann man schnell und einfach feststellen, welche Links auf Archiv zeigen und welche normal arbeiten. Ich kann also immer noch ziemlich einfach nachträglich einen Link aktualisieren--Giftzwerg 88 (Diskussion) 17:53, 14. Jul. 2017 (CEST)
Hallo Giftzwerg 88, Ironie des Schicksals?, der Weblink-Checker ist selbst nicht mehr erreichbar, die Domain wurde augenscheinlich vor kurzem verkauft--Ciao • Bestoernesto 17:56, 30. Sep. 2017 (CEST)
Hallo Giftzwerg 88,
danke für den Link (den ich nicht kannte). Am von mir geschilderten Aspekt geht er aber vorbei, da er für eine Seite gedacht ist. Für Wartung braucht's aber eine Sammlung von Artikeln, die Du ohne Wartungsbausteine nicht gefudnen hättest.
Viele Grüße, Grueslayer 21:45, 17. Jul. 2017 (CEST)
Das ist sowas wie der Giftbot für die Westentasche. Bots können Massen von Artikeln bearbeiten, der Mensch immer nur wenige in einer gewissen Zeit. Wenn du also einen Artikel in einem aktuellen Zustand halten willst, damit der Bot nichts zu tun hat, so ist das ein ziemlich cooles Tool, mit dem man binnen kurzer Zeit sieht, ob es Handlungsbedarf gibt, aßerdem sind da noch Google, Internetarchiv und andere Seiten, die man damit per simplem Mausklick durchsuchen kann, ohne die URL nochmals ins Suchfenster eingeben zu müssen. --Giftzwerg 88 (Diskussion) 22:59, 17. Jul. 2017 (CEST)
Natürlich sind es, wie schon in der Kurier-Diskussion thematisiert, manchmal genau die veralteten Daten, die man haben möchte. Nämlich u.a. dann, wenn es um eine Information geht, die sich auf einen bestimmten Zeitpunkt in der Vergangenheit bezieht, und die auf einer inzwischen umstrukturierten und aktualisierten Website möglicherweise gar nicht mehr verfügbar ist. Gestumblindi 21:42, 14. Jul. 2017 (CEST)
pluseins. So oder so guckt idealerweise ein Mensch irgendwann nach, ob ein besserer Beleg vorhanden ist. Bis dahin kann ein (zusätzlicher) Archivlink eine gute Zwischenlösung sein. --Martina Disk. 21:53, 14. Jul. 2017 (CEST)

Einige technisch-organisatorische Fragen

  1. Irrtümlich als nicht erreichbar erscheinend
    • Uns sind derzeit Seiten aus über 500 Domains bekannt, die tatsächlich erreichbar sind, aber uns bei Bot-Besuchen keine befriedigende Antwort gaben.
    • Menschliche Benutzer mit normalen Browsern erhalten bei gelegentlichen Besuchen dieser Seiten sinnvolle inhaltliche Ergebnisse.
    • Ursachen könnten sein, dass dieser Server zu oft vom Bot besucht wird, seine ihn als Bot ausweisende Agenten-Codierung nicht akzeptiert wird oder Merkmale im technischen Dialog nicht zu einem Mensch mit Browser passen.
    • Wie geht der in Aussicht genommene Bot mit den fälschlich als unerreichbar erscheinenden Seiten um?
  2. Archivlink bereits durch GiftBot angeboten
    • GiftBot hatte 2015/16 geprüft, ob es zu einer nicht erreichbaren Seite Versionen im Internet Archive geben würde; teilweise sogar eine bestimmte Version angeboten und dies auf der Diskussionsseite verlinkt.
    • Für zurzeit fast 200.000 Artikel wird dies angeboten.
    • Soll der in Aussicht genommene Botlauf diese uns eigentlich bereits bekannte Information in einem erneuten Edit in den Artikel schreiben, oder würden solche Dubletten ausgeschlossen?
  3. In der deutschsprachigen Wikipedia liegt der Anteil mittels Vorlagen formatierter Zitationen im unteren einstelligen Prozentbereich.
    • Die Zahl der Weblinks per Standard-Vorlage in Einzelnachweisen dürfte ein bis zwei Prozent nicht wesentlich übersteigen.
    • Ein bislang nicht bekannter Mechanismus solle in den eingebundenen Vorlagen einen neuen Parameter einfügen, der einen angebotenen aber bislang nicht durch einen Menschen kontrollierten Link auf das Internet Archive in den Artikelquelltext schreibt, der dann ein bisschen aber noch nicht so richtig in der Artikelansicht dargestellt werden solle.
    • Wie soll der Bot mit den frei (ohne Vorlage) formatierten Quelltextpassagen verfahren, die den weitaus größten Anteil der Einzelnachweise ausmachen?
    • Neben den Standard-Vorlagen gibt es viele weitere Vorlagen, die für eine spezielle Website oder einen Themenbereich (etwa im Rahmen von Vorlage:EWQ) Weblinks bereitstellen. Auch hier kann es zu Ausfällen kommen. Wie würde der Bot damit umgehen?
  4. Inhalt der Archivseite
    • Ein Grund für die hierzuwiki eingeforderte menschliche Gegenkontrolle ist, dass auf der archivierten Seite einfach nur stehen könnte, dass dieses Angebot seit einiger Zeit nicht mehr verfügbar wäre; dies jedoch nicht vom ursprünglichen Webserver per 404 etc. technisch erkennbar als unerreichbar markiert wurde.
    • Erkennt der Bot diese Situation, und verwendet ggf. eine besser geeignete und inhaltlich ebenfalls geeignete frühere Archivversion, auf der noch der vollständige Inhalt dargeboten wird?

VG --PerfektesChaos 22:20, 15. Jul. 2017 (CEST)

Sehr gute Fragen. Danke. Für Antworten rufe ich mal User:Cyberpower678 hierher. --Martina Disk. 04:31, 16. Jul. 2017 (CEST)
Hier sind meine Antworten:
  1. IABot's URL Algorithmus:
    • IABot leitet unter solchen Umständen auch, aber wahrscheinlich nicht so Ernst. IABot's Datenbank kann mit der Domain tool modifiziert werden bei solchen fällen. Die Domain tool können nur Wikipedia Administratoren benutzten, aber es noch nicht für dewiki erreichbar. Tool Roots, wie ich, legen die betroffenen Domains in eine Weisseliste. Normale Benutzer melden lebendige URLs die als tot verwechselt sind mit dieser Tool. Damit werden meistens die URLs selber in den DB korrigiert, und in anderen fällen, mir weiter geschickt zum untersuchen.
    • Wenn IABot eine URL besucht, der Bot sieht aus wie ein Chrome Webbrowser, den Server gegenüber. Aber JS ist nicht unterstützt. Also der Algorithmus ist 99 % akkurate mit Webseiten als Lebend oder als Tot zu erkennen.
    • Das ist leider nicht in meiner Kontrolle. IABot wohnt bei Labs, und andere Tools und bots laden manche Webseiten viel zu schnell, und als Ergebnis wird Labs blockiert, und als Konsequenz wird der Bot auch. IABot minimiert Kontakt mit Webseiten in dem es eine Wartezeit von 3 Tagen zwischen jeder Check macht. Nach 3 durchgefallene Checks wird der erst dan als Tot anerkannt. Wenn der Bot blockiert ist, kommt es als Tot heraus. In solchen fällen, wird die Domain in der Weisseliste hinzugefügt.
    • Jeder Benutzer kann IABot Fehler direkt bei IABot korrigieren. Es gibt tools die es für meiste fälle die Probleme beheben, und die Tools sind super leicht und einfach.
  2. Dupletten von GiftBot
    • IABot kann genau das Selbe machen.
    • Ok
    • Es werden Dubletten geben außer wir lassen ein Bot Skript laufen die für mir URLs und Page IDs produzieren so das ich es im Voraus als gemeldet markieren kann. Aber wenn IABot die Hauptartikeln modifizieren tut, dann ist es irrelevant.
  3. Citaten Vorlagen
    • Ok
    • Kann man machen.
    • IABot kann die Links entweder ersetzen oder eine Archivvorlage verwenden und ein bot Markierung setzten. Enwiki benutzt {{Webarchive}}. Ich überlasse die Entscheidung bei dewiki Benutzer.
    • Die werden ignoriert. Dedizierte Vorlagen können bei der Vorlage selber repariert werden, es ist sinnlos fuer ein Bot die zu Analysieren.
  4. Archivseiten
    • Ok
    • Wenn der Original URL noch als lebendig erkennt wird, dann macht das Bot nichts. Sollte er aber nicht mehr Funktionieren, oder als tot markiert sein, wird eine Archivseite, möglichst von eine Datum dichtest zu dem originalem Zugriffszeitpunkt, gesucht and hinzugefügt, die als funktionsfähig anerkannt wird.
Hoffentlich helfen die Antworten.—CYBERPOWER (Diskussion) 16:00, 18. Jul. 2017 (CEST)
  • 2. Archivlink bereits durch GiftBot angeboten
    • Es bedürfte einer ausdrücklichen MB-Option, dass ein Bot eine uns bereits durch GiftBot aus 2015/16 aus der Diskussionseite bekannte Archivversion erneut als Vorschlag in den ANR hineinschreiben solle, obwohl durch dieselbe Information bereits einmal VG und die Beos von Bot-Aktivitäten beobachtender Bearbeiter belastet wurden.
  • 3. Nicht mittels Standard-Vorlagen formatierte Zitationen
    • Es geht um die beiden Vorlage:Internetquelle und Vorlage:cite web (et al.).
    • Nur wenn eine dieser beiden Vorlagen verwendet wurde und auch ein Abrufdatum angegeben ist, könne der Bot eine bestimmte, zeitlich naheliegende Version vorschlagen.
    • Diese beiden sollen jeweils um neue Parameter ergänzt werden, die eine zusätzliche kommentierende Meldung in der Artikelansicht erzeugen:
      „Inhaltlich bislang ungeprüfter Archivlink, bitte kontrollieren und danach geeignet anpassen“.
  • 3b. Reine Quelltextangabe ohne Vorlage
    • Der vorgestellte Algorithmus sieht vor, dass das Abrufdatum dem Bot bekannt sein muss, damit eine konkrete Version im IA vorgeschlagen werden kann.
    • Dazu ist eine Interpretation der relativ uneinheitlichen Quelltextgestaltung notwendig; aber ziemlich durchgesetzt hätte sich eine in der Nähe gelegene Formulierung
      [;] abgerufen [am] 24. Dezember 2024
    • Es bedürfte einer ausdrücklichen MB-Option, dass ein Bot in allen diesen Fällen eine erst noch zu erstellende Vorlage einfügen solle, in deren Ausgabe sich immer auch eine Formulierung finden würde wie etwa:
      „Inhaltlich bislang ungeprüfter Archivlink, bitte kontrollieren und danach geeignet anpassen“.
  • 4. Inhalt der Archivseite
    • Das ist nicht richtig.
    • Betrachten wir folgendes Szenario:
      • Im März 2016 veröffentlicht eine Website statistische Daten.
      • Am 30. Dezember 2016 fügt unser Autor eine URL darauf in den Artikel ein.
      • Am 3. Januar 2017 schreibt die Firma in ihre Website an dieser URL, dass das mit den Statistiken zu aufwändig wäre und sie das künftig nicht mehr machen würde; markiert jedoch nicht als 404; bietet hingegen eine JavaScript-basierte Suche in der Website an.
      • Am 10. Januar 2017 nimmt archive.org diesen Text in das Archiv auf.
      • Am 1. Juli 2017 nimmt die Firma diese URL aus dem Angebot, oder geht komplett pleite, jedenfalls ist die URL nun ganz kaputt.
      • Nunmehr bemerkt das der Bot und fügt einen Hinweis auf die Archivversion vom 10. Januar 2017 ein.
      • Jede Version aus dem Sommer 2016 wäre hingegen geeignet.
    • Wir kennen zur Genüge das This Domain is for sale, $100 only.
    • Deshalb besteht die deWP auf menschlicher Kontrolle.
  • 5. Neue Frage: Bereits vom Menschen zurückgewiesene Archivversion
    • Angenommen, ein menschlicher Bearbeiter hat die vorgeschlagene Archivversion geprüft und für untauglich befunden, und keine bessere Lösung für das Problem.
    • Löscht er nun den Vorgang, kommt einige Wochen später der Bot erneut vorbei und meldet den status quo ante.
      • Darauf muss sich nunmehr ein menschlicher Bearbeiter erneut mit der Angelegenheit befassen, prüft den Inhalt der Archivversion, findet sie ungeeignet, löscht die Bot-Info wieder.
      • Darauf kommt einige Wochen später der Bot erneut vorbei und meldet den status quo ante.
    • Macht der erste Bearbeiter einfach gar nichts, weiß der Bot, dass er das ja schon bearbeitet hatte.
      • Dafür befasst sich alle paar Wochen ein anderer Autor mit dem Vorgang, liest die Archivversion, verwirft sie, löscht oder lässt es stehen. Vielleicht kommt derselbe Wikipedianer sogar alle paar Monate an denselben Artikel, kann sich aber schon längst nicht mehr an diesen konkreten Fall erinnern.
    • Es muss also durch bestimmte Parameter für genau diese URL oder aber durch Markierung des gesamten Artikels durch die Autoren dem Bot kommuniziert werden, dass diese Zuordnung dieser defekten URL zu dieser konkreten Archivversion ungeeignet ist.
    • Es bedarf also einer detaillierten Anleitung für alle Wikipedia-Autoren, wie sie wann mit dem Bot-Eintrag umgehen sollen und mit welchen technischen Mitteln sie in welcher Situation mit dem Bot zu kommunizieren hätten. Viel Spaß.

Greetings --PerfektesChaos 14:03, 20. Jul. 2017 (CEST)


gudn tach!
danke Cyberpower678, fuer deine muehe, auf deutsch zu antworten, aber ich glaube, es waere sinnvoller/verstaendlicher, wenn du auf englisch antworten wuerdest. notfalls kann ja hier jemand die antwort uebersetzen. -- seth 17:55, 16. Jul. 2017 (CEST)
Habe ich natürlich befürchtet. Welcher Satz ist nicht verständlich?—CYBERPOWER (Diskussion) 18:12, 16. Jul. 2017 (CEST)
wenn du im ersten satz „leidet“ (“suffers”) statt „leitet“ meintest, habe ich glaube ich alles verstanden. aber ich musste sehr langsam und manche saetze mehrfach lesen. eine weitere alternative waere, dass du erlaubst, dass deine beitraege sprachlich ueberarbeitet werden. (bei bedarf koennen wir diese diskussion auch gerne auf deiner talk page fortfuehren.) -- seth 22:39, 16. Jul. 2017 (CEST)
Das wäre wohl die beste Lösung! Cyberpowers Beiträge sind – auch auf deutsch – sehr gut, müssten lediglich an ein oder zwei Stellen korrigiert werden (und vielleicht für die nicht-technische Allgemeinheit an drei Weiteren „geglättet“ werden. Falls Cyberpower damit einverstanden wäre und du Seth das übernehmen würdest, wären die Beiträge für jeden (auch die nicht-englischsprachigen-Nerds :D ) direkt problemlos verständlich und unmittelbar vom Autor (ohne Übersetzung). --mirer (Diskussion) 04:14, 17. Jul. 2017 (CEST)
Ich habe keine Probleme damit. Seth, oder jemand anders, kann meine Sätze korrigieren. Und ja, ich meinte leidet, nicht leitet. Sorry, das war ein Typfehler. Ein dank an alle.—CYBERPOWER (Diskussion) 23:36, 17. Jul. 2017 (CEST)

Statistische Betrachtung

  • Wir kennen ungefähr die Alterungsrate von URL, und es lässt sich hochrechnen, dass gut 100.000 URL seit 2016 defekt wurden, von denen wir noch nichts wissen.
    • Von diesen 100.000 URL sind etwa 1 % mit einer der beiden Standard-Vorlagen formatiert, bei denen das Einfügen eines neuen Parameters relativ unstrittig wäre. Das sind 1000 URL.
    • Zu bedenken ist nebenbei, dass nur bestimmte Typen von URL in das IA aufgenommen werden; sehr dynamische Datenbankabfragen usw. (etwa auch der stündliche Wetterbericht an jedem Ort) oder per robots.txt ausgeschlossene Seiten schon mal nicht.
    • Die frühere zufällige Registrierung einer Archivversion hatte eine eher magere Quote; da seit einiger Zeit wohl automatisch in Wiki-Projekten neu eingefügte URL einigermaßen zeitnah im Archiv hnterlegt werden, mag die Trefferwahrscheinlichkeit optimistisch 30 % betragen.
    • Damit beträgt die erwartbare Gesamtmenge seit dem letzten GiftBot-Lauf, für die dieses MB aussichtsreiche Optionen liefern würde, 300 URL.
    • Auch bei diesen ist noch nicht alles getan und fertig, sondern sie wären noch jeweils auf inhaltliche Passung zu kontrollieren.
    • Nimmt man all die Arbeitskraft und Zeit, die für das Lesen und teilweise auch Kommentieren der PRD, Kurierdisku und dieses MB-Entwurfs bei allen WPlern draufgegangen sind, nebst geistiger Energie beim Durchdringen der Problematik, dann hätten vermutlich statt dessen in 1000 Artikeln alle GiftBot-URL komplett abgearbeitet werden können.
    • Effiziente Projektbeteiligung sieht anders aus.
  • Bitte etwas weniger Technikgläubigkeit, etwas weniger Delegation des eigenen Verstandes an Algorithmen, die einem auf zauberhafte aber leider überhaupt nicht begriffene Weise schon irgendwie automatisch die Artikel richtig schreiben und pflegen werden.

VG --PerfektesChaos 14:03, 20. Jul. 2017 (CEST)

Ich komme mit diesen Statistics nicht klar. Wie kommst du auf 300 links werden gerettet wenn 100,000 tot sind. Wenn 100,000 tot sind werden 100,000 entweder markiert oder gerettet. Deine Statistik liegt leider weit daneben.—CYBERPOWER (Diskussion) 20:54, 20. Jul. 2017 (CEST)

mehr technische Fragen

@User:Cyberpower678: Ich habe ein paar weitere Fragen. Vorweg ein paar Fragen zum Hintergrund deines Bot-Projektes:

  1. Seit wann wirst du von Internet Archive für deine Arbeit an dem Bot bezahlt? Gibt es irgendwo öffentliche Informationen bzw. eine Projektseite über Beginn, Umfang, Inhalt und Dauer deines Auftrags? Ist ein Ende des Auftrags absehbar? Wie geht es danach weiter?
  2. Gibt es öffentliche Informationen über das von dir erwähnte Kooperationsprojekt “No-404” der Wikimedia Foundation mit dem Internet Archive?

Jetzt kommen ein paar Fragen zu den Bot-Funktionalitäten. Disclaimer: Ich bin programmiertechnisch völlig kenntnisfrei und hoffe, dass ich keine völlig blöde Fragen stelle. :-)

  1. Was macht der InternetArchiveBot, wenn bei der Einfügung eines Weblinks oder eines Einzelnachweises keine Standadisierte Vorlage benutzt wurde, sondern wenn der Einzelnachweis lediglich aus dem Link besteht (kein Autor, kein Titel, kein Datum)?
  2. Wirst du die Struktur der Bot-Einträge an die hiesige Vorlage {{Webarchiv}} anpassen?
  3. In Fällen, in denen im Internet Archive keine Version verfügbar ist, aber bei WebCite oder bei Archive Today eine Kopie verfügbar ist: Wärest du bereit, den InternetArchiveBot mit weitgehend denselben Funktionen auch auf andere Archive auszuweiten? Oder würden wir für diese Fälle weiterhin den GiftBot laufen lassen müssen?

Zum Schluss eine ziemlich grundsätzliche Anmerkung und Frage: Die deutschsprachgie Community könnte dem bereits in Betrieb genommenen „GiftBot“ erlauben, die verfügbaren Archivlinks – anbieterneutral – direkt in den Artikel statt auf die Diskussionsseite zu setzen. Worin bestehen deiner Meinung nach die technischen und funktionalen Vorteile des IAB gegenüber dem GiftBot? Ich frage all dies ausschließlich, um die technischen Details besser zu verstehen und das Meinungsbild sorgfältiger vorbereiten zu können. Ich selbst habe noch keine feste Meinung zu den Vorschlägen, sondern erstmal nur etliche Fragen. Danke im Voraus für deine Zeit und Mühe! --Martina Disk. 22:17, 22. Jul. 2017 (CEST)

@Martina Nolte: Hier sind meine Antworten:
  1. Seit Februar 2017, der Botprojekt began im Juni 2015. Ich werde nur finanziert so das dieser Botprojekt weiter entwickelt werden kann. Ich werde fuer mein Zeit bezahlt. Die Bedingungen einfach fortschritt machen und mich mit Gesetze und Wikipedia regeln einhalten. Weitere Informationen gebe ich leider nicht aus. IA präsentiert dieses Jahr bei Wikimania, und ich bin da auch dabei.
  2. Die No-404 Projektseite kann warscheinlich Kaldari (Diskussion • Beiträge • hochgeladene Dateien • SBL-Log • Sperr-Logbuch • globale Beiträge • SUL • Logbuch) oder Ocaasi (Diskussion • Beiträge • hochgeladene Dateien • SBL-Log • Sperr-Logbuch • globale Beiträge • SUL • Logbuch) geben. Die sind WMF Mitarbeiter. Es gibt aber m:Community Tech/Migrate dead external links to archives.
  3. Das kann ich besser mit Beispielen beantworten. Ausserhalb Referenzen macht es sowas. Der Grund dafür ist so das Artikelformatierung nicht gestört oder zerstört wird. Innerhalb Referenzen macht es sowas. Dabei werden die Datums von den Versionenverlauf festgestellt. Bei dewiki wird {{Webarchiv}} verwendet.
  4. Jeder wiki hat seinen eigene Struktur. Es wird auf einzelnen Wikis angepasst.
  5. IABot checkt persönlich nur Internet Archive, aber unterstütz 20 Archiv Dienste. Es prüft nur bei IA nach weil die andere Dienste viel zu langsam sind. Enwiki kann sich dass nicht leisten. Es gibt aber eine weiter bot des mit IABot kommuniziert und liefert Archivkopien von andere Dienste an IABot. Die helfen sich gegenseitig und lernen voneinander. IABot lernt auch direkt bei Wikipedia Seiten selber. Archivkopien die schon existieren, werden eingespeichert und weiter verwendet so das es immer möglichst eine Funktionsfähigen Kopie liefert.
GiftBot ist wahrscheinlich nur Programmiert auf Diskussionsseiten zu posten. Dabei kann IABot alles machen, und kann auf jeder Wikipedia einzeln eingestellt werden. Es gibt sämtliche Opt-out Optionen, und noch Benutzertools bei https://tools.wmflabs.org/iabot womit IABot gesteuert und verbessern werden kann. Die grundliegende Programmiercode wurde über extreme harte Tests und Fehlermeldungen, über Jahren, auf Menschenfähigkeiten gebracht. IABot kann die Formatierung mit fast 100 % Genauigkeit verarbeiten, analysieren, und dann modifizieren. GiftBot kann auch um Programmiert werden um IABot noch besser zu machen mit der API. Der API befindet sich bei https://tools.wmflabs.org/iabot/api.php und Dokumentation bei m:InternetArchiveBot/API. Hoffentlich hilft das—CYBERPOWER (Diskussion) 23:27, 22. Jul. 2017 (CEST)
Ein Hinweis: Bei en:Bobrinsky gibt es einen solchen Link: Homepage of the Bogoroditsk Museum. Der InternetArchiveBot hat ihn offenbar als tot identifiziert und kurzerhand durch einen Link aus dem Internetarchiv ersetzt: [1]. Er ist aber gar nicht tot, weshalb ich das rückgängig gemacht habe (und die website per Tool als zugänglich gemeldet habe); es handelt sich um ein false positive, die nach meinem Eindruck ausgesprochen häufig sind. Es scheint, wenn der Bot eine Site nicht findet und keine Anhaltspunkte zum Datum hat, ersetzt er sie einfach durch den Link aufs Archiv. Ist das so korrekt?--Mautpreller (Diskussion) 23:16, 22. Jul. 2017 (CEST)
@Mautpreller: Hallo. Wie gehts? Die scheinen nur häufig zu sein weil der Bot leider blockiert wird. In solchen fällen kann IABot nicht erkennen ob es tot ist, oder blockiert ist. Es gibt keine Automatisierte Methode sowas zu erkennen. Dabei sehe ich dein False Positive Meldung. Ich habe nachgeschaut und der Kode selber erkennt den als Lebendig aber weil Labs blockiert ist, und IABot wohnt bei Labs hat IABot es als tot getäuscht. Um dabei dagegen zu kämpfen habe ich jetzt die ganze Domain auf der Weissliste Gesetz so das IABot all URLs in dieser domain ignoriert. IABot ERSETZT NUR wenn der link sich nicht in einer Vorlage UND in einer Referenz befindet. Wenn der Link in einer Vorlage ist, benutzt er die Vorlage und HEFTE die Archiv URL an die originale mit |archiveurl=. Wenn sich der Link innerhalb eine Referenz befindet aber ohne Vorlage, heftet er dann {{en:Template:Webarchive}} oder wandelt es in einer Vorlage um. Links in Vorlagen umzuwandeln kann abgeschaltet werden, so das es nur {{en:Template:Webarchive}}. IABot kann fuer jeden einzelnen Wikipedia unterschiedlich konfiguriert werden.—CYBERPOWER (Diskussion) 23:41, 22. Jul. 2017 (CEST)

@User:Cyberpower678: Vielen Dank für deine schnelle Reaktion und die Informationen. Die vielen spezifischen Konfigurationsmöglichkeiten sind sehr nett.

  • Wenn dein Auftrag durch IA irgendwann enden sollte, wirst du den Bot dann wieder ehrenamtlich betreiben und pflegen?
  • Kannst du uns bitte einen Link geben, wo man die Übergabe/Lieferung von Archivlinks anderer Dienste an den IABot anschauen und nachvollziehen kann?
  • Welche sind die 20 Archivdienste, die der IABot verarbeiten kann? Hast du einen Link?
  • Kannst du dir vorstellen, die Meldungen von false positives in der deutschsprachigen Wikipedia entgegen zu nehmen? Die wenigsten von uns haben einen Labs-Account und ich fände es gut, wenn die technischen Barrieren für die Benutzer so niedrig wie möglich gehalten werden könnten.

Danke nochmal! --Martina Disk. 00:39, 23. Jul. 2017 (CEST)

  • Ja.
  • https://tools.wmflabs.org/iabot kann dir diese Informationen geben.
  • Heir sind die Arkivdienste:
    1. europarchive.org
    2. archive.org | waybackmachine.org
    3. archive.is | archive.today | archive.fo | archive.li | archive.es
    4. mementoweb.org
    5. webcitation.org
    6. archive-it.org
    7. arquivo.pt
    8. loc.gov
    9. webharvest.gov
    10. bibalex.org
    11. collectionscanada.com
    12. veebiarhiiv.digar.ee
    13. vefsafn.is
    14. proni.gov
    15. uni-lj.si
    16. stanford.edu
    17. nationalarchives.gov.uk
    18. parliament.uk
    19. nlb.gov.sg
    20. perma.cc
    21. nla.gov.au
    22. webarchive.org.uk
    23. freezepage.com
    Die folgenden werden erkannt als ungültiger Arkivdienst
    1. webcache.googleusercontent.com – Nicht dauerhaft
    2. wikiwix.com – kein zugriff auf Arkivdatum
  • Du brauchst keine Labs Konto. Nur einen Wikipedia Konto. Beim anmelden wird der Benutzter gefragt ob dieser Tool dein Konto zugreifen darf. Es ist komplett sicher und erlaubt.
Viele Grüße—CYBERPOWER (Diskussion) 00:57, 23. Jul. 2017 (CEST)
@User:Cyberpower678: Oh, ich wusste nicht, dass SUL auf Labs funktioniert – danke! Ich finde die obige Dienste-Liste dort nicht. Aber wie gesagt, ich bin kein Techie. Für mich gibt es dort “Analyze a page”, “Submit a bot job”, “View job data”, Manage URL Data: “Permission error”, “Report false positives”, “Report a bug”, “Activity log for this wiki” (derzeit enWP), User search tool, Interface information, False positive report: “Permission error”, Bot Queue: “Permission error”. Nochmal: Je höher die technischen Hürden für den durchschnittlichen Wikiepdianer sind, desto höher das Risiko, dass der AIBot abgelehnt wird. Wärst du bereit, Meldungen von false positives oder von anderen Problemen in der deutschsprachigen Wikipedia entgegen zu nehmen? Danke! --Martina Disk. 01:42, 23. Jul. 2017 (CEST)
@Martina Nolte: Die Liste findet man nicht irgendwo. Das ist das aller erste mal das es gelistet wird. Die Tools sind noch nicht ganz verfügbar fuer dewiki weil ich dewiki Unterstützung noch nicht Programmiert habe. Ja ich kann die Meldungen auch bei Wikipedia akzeptieren, aber die Tools sind fuer beide Parteien viel leichter. Ich bevorzuge aber der Englischsprachigen Wikipedia fuer die Meldungen.—CYBERPOWER (Diskussion) 14:31, 23. Jul. 2017 (CEST)
die Tools sind fuer beide Parteien viel leichter. Nein. Ich nehme an, für Dich sind sie einfacher, für mich waren sie schwieriger. Ich brauchte relativ lang, um mich zurechtzufinden, und noch länger, um zu kapieren, ob meine Meldung angekommen ist oder nicht.--Mautpreller (Diskussion) 16:01, 23. Jul. 2017 (CEST)
@Mautpreller: Das ist natürlich schade. Die Idee da hinter war das es leichter fuer mich UND Benutzer sein sollte in dem es dann Zeit spart Probleme zu melden. Bei enwiki, und svwiki, ist es gut angekommen. Der Bot hinterlässt eine Nachricht wo False Positives gemeldet werden kann und die haben sich damit klar gefunden.—CYBERPOWER (Diskussion) 21:38, 23. Jul. 2017 (CEST)
Ich finde Labs auch nicht intuitiv. Wir machen regelmäßig die Erfahrung, dass externe Angebote, Tools, Gadgets deutlich weniger genutzt werden als lokale Seiten. Tollentwickler nutzen Labs, aber Benutzer wollen da selten mitmachen. Anwenderfreundlichkeit ist wichtig für die Akzeptanz.
Zum Vergleich: Der GiftBot bietet für die Meldung von false positives einen Link an, mit dem der Benutzer eine weitgehend vorgefertige Meldung lokal absetzen kann. Beispiel Diskussion:A-Junioren-Bundesliga 2008/09, Klick auf „… dann bitte berichten...“ führt zu [2] mit kinderleichter preload-Funktion und eindeutigen Nutzungshinweisen.
Könnte man eine hiesige Seite anlegen und dich über die globale Benachrichtigungsfunktion (WP:Echo/en:Wikipedia:Notifications) auf neue Einträge hinweisen? --Martina Disk. 18:24, 23. Jul. 2017 (CEST)
@Martina Nolte: Ist es nicht ultimativ was auf Labs steckt was wichtig ist? Es gibt viele Tools die einfach nicht einfach sind. Dabei habe ich meine so gebaut das die einfach sein sollten. Natürlich akzeptiere ich Meldungen auf meiner Talk Seite, aber wenn man sich mit meine Tools auskennt, merkt man schon das es viel leichter und schneller ist Bot Probleme zu beheben. So lange ich notifiziert werde, kann man auch eine Seite erstellen. Aber ich arbeite hauptsächlich auf enwiki.—CYBERPOWER (Diskussion) 21:38, 23. Jul. 2017 (CEST)
Um das mal zu erklären: Ich bekomme zunächst mal die Meldung: „Hi Mautpreller, In order to complete your request, IABotManagementConsole needs permission to perform the following actions on your behalf on all projects of this site: Interact with pages: Edit existing pages; Edit protected pages; Create, edit, and move pages.“ Was bedeutet das? Ich habe eine Minute überlegt: Wer ist “IABotManagementConsole”? Wieso braucht der meine Erlaubnis, und wozu? Was bedeutet es, dass er “on my behalf” etwas tut? Macht er dann Edits in meinem Namen? Nach einigem Nachdenken konnte ich mir das nicht vorstellen und dachte, na gut. Gebe ich also jemandem, den ich nicht kenne, eine Erlaubnis, deren Sinn ich nicht verstehe. Dann kriege ich das Fenster “Report false positives”. Okay, das kann ich verstehen. Ich gebe eine URL ein und drücke “Submit”. Es kommt ein neues Fenster mit 5 Alternativen, die ich nicht klar auseinanderhalten kann. Das erste sagt mir: “These URLs will be reported as false positives and reset in the DB later:” Hier ist die URL wiederholt, die ich gemeldet habe, mit der Bemerkung “No response from server”. Aha. Was muss ich jetzt tun? Obendrüber steht: “Please review the following URLs and confirm that they are really not dead.” Wie mach ich das? ich habe zuerst einen Schritt zurück mit dem Browser versucht, weil ich nicht sicher war, ob ich hier richtig bin. Natürlich war ich dann „draußen“ und kam nicht mehr zurück. Also nochmal. Vielleicht ist gemeint, einfach die URL nochmal anzuklicken? Ich habs zwar schon versucht, aber vielleicht will er das? Der Link funktioniert, aber jetzt bin ich am Linkziel. Wie komme ich zurück? Im Browser geht das nicht bzw. die Seite muss neu geladen werden. Dann komme ich drauf, dass ich gar nicht den Link anklicken muss, sondern den Submit-Button unten. Nun bekomme ich aber keine Meldung: “Your report has been received, thank you”, sondern ich komme wieder zurück auf die Seite, wo ich False Positives melden kann. Ich weiß jetzt nicht: Hat es geklappt oder nicht? Hab ich was falsch oder alles richtig gemacht? Der GiftBot hat eine viel komfortablere Meldefunktion, bei der man sofort sieht, was man machen soll, und vor allem, was man gemacht hat.--Mautpreller (Diskussion) 22:39, 23. Jul. 2017 (CEST)
  • Der dort genutzte Mechanismus, sich mit dem Wikimedia-Account in ein Tool o.ä. einzuloggen, ist seit Jahren sehr verbreitet. auf der Seite Special:OAuthManageMyGrants kann man nachsehen, was man da so alles authorisiert hat und das auch widerrufen. Ein Tool fordert in der Regel nur jene Rechte an, die es auch gebraucht – das kann bisweilen auch bedeuten, dass Seiten bearbeitet werden. Ob das hier der Fall ist, kann ich nicht beurteilen.
  • Es geht bei diesem Einloggen immer auch um accountability. Sonst könnte ja irgendein Troll kommen und einfach alle Links als False-Positives setzen, oder so, und so das Tool komplett „deaktivieren“. Am Ende muss klar sein, wer eine Aktion veranlasst hat. Wenn Du das ganz normal benutzest, hast Du dadurch keinen Nachteil.
  • Deine Aktionsbeschreibung kann ich nicht so recht nachvollziehen, bin aber selbst noch nicht so richtig vertraut mit dem IABot-Backend.
  • Der Giftbot hat eine „komfortablere“ Meldefunktion in dem Sinne, dass sie onwiki stattfindet. Meines Wissens erzeugt sie auf Seiten der Betreiber deshalb ziemlichen Diskomfort, weil der Rückfluss nicht so gut abgestimmt ist. IABot hat das Meldewesen weitgehend automatisiert, weshalb das Teil dauerhaft und auf mehreren Wikis laufen kann.
MisterSynergy (Diskussion) 22:57, 23. Jul. 2017 (CEST)
Der GiftBot hat einfach deshalb eine viel komfortablere Meldefunktion, weil man als User sieht, was man tut und was passiert ist. Ich hab hier Schritt für Schritt aufgeschrieben, welche Erfahrungen ich gemacht habe (dh parallel eine der zahlreichen False Positives eingegeben und ausprobiert, was dann passiert; eine echte übrigens, kein Übungsbeispiel; übrigens schon zum zweiten Mal). Den klassischen Fehler in Sachen usability sehe ich vor allem in Deinem Kommentar: Auf der Seite Special:OAuthManageMyGrants kann man nachsehen, was man da so alles authorisiert hat und das auch widerrufen. Ein Tool fordert in der Regel nur jene Rechte an, die es auch gebraucht – das kann bisweilen auch bedeuten, dass Seiten bearbeitet werden. Ob das hier der Fall ist, kann ich nicht beurteilen. Das nützt mir rein überhaupt nichts, wenn ich mit dieser Situation konfrontiert bin. es erinnert mich an die Planungsunterlagen, die auf Alpha Centauri ausliegen.--Mautpreller (Diskussion) 23:10, 23. Jul. 2017 (CEST)
Das war Hintergrundinformation zum dem OAuth-Mechanismus, die mir aufgrund Deines Beitrages als hilfreicher Kommentar erschien. Magst Du mir die URL einmal nennen? Ich möchte das gern selbst einmal versuchen, habe aber leider gerade keinen Testfall zur Hand. —MisterSynergy (Diskussion) 23:13, 23. Jul. 2017 (CEST)
Die URL, die ich eingegeben hatte, war http://pod2.stat.gov.rs/ObjavljenePublikacije/Popis2011/Knjiga20.pdf. Es ist die erste der sechs URLs, die im Artikel en:Bosilegrad zuletzt vom InternetArchiveBot als unerreichbar gemeldet wurden. Auch die folgenden fünf sind erreichbar.--Mautpreller (Diskussion) 23:19, 23. Jul. 2017 (CEST)
Danke. Über “Manage URL data” -> “Manage individual URLs” -> URL eingeben, Enter -> dann Drop-down-Menü bei “Live status” hat es geklappt. Zuvor habe ich doch noch einen anderen Fall gefunden, der über “Submit Bug Report” -> “Report False Positive” ebenfalls geändert werden konnte. Da steht auch jeweils ein Logbuch dabei, in dem das festgehalten wird. Ich mag die Oberfläche trotzdem bisher nicht so recht. —MisterSynergy (Diskussion) 23:30, 23. Jul. 2017 (CEST)
Das muss ich mir nochmal anschauen, ich spiele da nochmal mit rum. Ein paar Sachen schonmal so:
  • Hier hat das Teil zu schnell geschossen. Ich habe die betreffende Seite analysiert, und da wurde dann ohne weitere Rückfrage direkt ein Archivlink angebracht – leider ein falsch-positiver. Da hätte ich gern zunächst einmal das Analyseergebnis angeschaut und dann noch einmal bestätigt, um die Seite zu bearbeiten.
  • sports-reference.com ist whitelisted. Was heißt whitelisted genau? Etwa, dass in jedem Fall ein Archivlink angebracht wird? Es gibt zwar Gerüchte bei der Site, sie würde bald offline gehen, aber das ist seit einem Jahr nicht passiert. Bei enwiki sind mir viele von solchen Archivlinks aufgefallen, die eigentlich zu diesem Zeitpunkt überhaupt nicht nötig wären.
  • Ich muss mich noch an die Informationen gewöhnen, die man da so sehen kann. Ich hätte das selbst glaub ich irgendwie anders aufgezogen, kann aber noch nicht sagen wie genau. Ich würde dann die Bug-report-Funktion nutzen, falls ich Ideen habe.
  • Das Tool kann IMHO gern https-only sein.
MisterSynergy (Diskussion) 23:54, 23. Jul. 2017 (CEST)
  • Um das zu beheben, muss einiges ändern. Aber der Hinweis oben auf der Tool sagt das es eine Edit machen könnte.
  • Eine Deutsche Übersetzung wäre wahrscheinlich viel hilfreicher, aber oben auf der URL data tool, steht “Privileged users can un/set the live state to whitelisted. This treats the URL as alive and locks it in that state so it cannot be modified by the bot or by users lacking permission to do so.” Eine Whitelist, Weisseliste, ist ein Liste wo IABot URLs, oder Domains, als lebendig klassifiziert wird und nicht nach prüft ob es wirklich lebt.
  • Der Tool muss übersetzt werden. Hier kann man es übersetzen.
  • Kein Problem, aber das ist nicht in meiner Kontrolle.
CYBERPOWER (Diskussion) 00:21, 24. Jul. 2017 (CEST)
@User:Cyberpower678: Ich werde nicht in Montréal sein.
Ja, die Informationen wie false positives müssen natürlich auf Labs eingespeist werden. Die Listen könnte aber eventuell ein Bot von deWP nach Labs transferieren? Ich möchte nur erst einmal verstehen, wie der Arbeitsablauf für den normalen Benutzer aussieht, was machbar ist und was nicht machbar ist. Je höher die technischen Hürden, je weiter weg die Mitwirkung ausgelagert wird, je komplizierter die Mithilfe wird, desto geringer werden die Aussichten sein, dass ein noch so gutes Tool von der Gemeinschaft akzeptiert wird. Gut zu wissen, dass das IABot-Interface ins Deutsche übersetzt werden kann – das ist sicher hilfreich. --Martina Disk. 01:51, 24. Jul. 2017 (CEST)
@Martina Nolte: Schade das du nicht dabei bist. Wäre nett gewesen. Ein bot kann schon die Existierende False Positives zu IABot transferieren. Mit meiner tools kann ich die bestätigen als False Positives oder ob die richtig erkannt werden. Um False Positives zu melden, ist es recht leicht, nach meiner Meinung. Bei https://tools.wmflabs.org/iabot/index.php?page=reportfalsepositive kann man False Positives melden. Man muss nur die lebendige links in den Formular einfüllen, auf Weiter klicken, dann fragt er dich um zu bestätigen das die Links wirklich lebendig sind, dabei nochmal auf Weiter klicken und die False Positives sind gemeldet. Entweder hat der Tool automatisch die Links korrigiert, oder es wird dann an mir weiter gemeldet. Das IABot Interface hat auch Benutzerrechte, und alle Benutzer mit mindesten 10 Edits, und mindestens 10 Tage alt auf Wikipedia, besitzt den einfachsten Benutzergruppe. Damit kann man False Positives melden und IABot auf Artikeln aufrufen. Sehe https://tools.wmflabs.org/iabot/index.php?page=metainfo für weitere Information darüber. Es erklärt wie man bestimmte Benutzergruppen zugreifen kann und unten werden die Benutzerflags erklärt.

pro-/kontra-argumente

gudn tach!
wie sind die pro- bzw. kontra-punkte gemeint? gegenueber was sind es vor- bzw. nachteile? -- seth 17:58, 16. Jul. 2017 (CEST)

@seth: Das ist bislang nur eine ganz grobe Ideensammlung für den Anfang. Gib uns bitte etwas Zeit. Ich warte auf Gestumblindi (siehe ganz oben). --Martina Disk. 18:10, 16. Jul. 2017 (CEST)
kein problem. -- seth 22:25, 16. Jul. 2017 (CEST)

Ist das reif für ein MB?

Ist denn diese Fragestellung wirklich reif für ein MB? Ich hatte in der Diskussion dein Eindruck, dass die Teilnehmer der Idee überwiegend sehr skeptisch gegenüber standen, einen Bot an die Artikel ranzulassen (im Unterschied zur Disk). Dann würde der Initiator versuchen, eine Idee gegen eine deutliche Mehrheit der bisher mit dem Thema befassten Wikipedianer durchzusetzen. Das zahlt sich in der Praxis eher nicht aus. Beim bisherigen Stand der Diskussion rate ich von einem MB ab. Das bringt nur mal wieder böses Blut. Grüße --h-stt !? 17:49, 17. Jul. 2017 (CEST)

Das Problem ist, dass ein nicht diskutierter Bot auch böses Blut erzeugt. Die deutsche Wikipedia ist ja dafür bekannt, dass Aversionen gegen Bots gepflegt werden.--Giftzwerg 88 (Diskussion) 23:04, 17. Jul. 2017 (CEST)
In den bisherigen Diskussionen über den Bot gab es alles von Begeisterung über Zurückhaltung und Skeptik bis Ablehnung. Derzeit finden wir ja erstmal heraus, was genau der Bot alles kann und was nicht. Das können wir dann umseitig beschreiben und die verfügbaren Optionen zur Abstimmung stellen. Ich sehe das ziemlich unaufgeregt. --Martina Disk. 06:10, 18. Jul. 2017 (CEST)

@H-stt: Ich hatte zuletzt (am 8. Juli) in der aktuellen Kurierdiskussion ein Meinungsbild angeregt, da die dortigen Diskussionsteilnehmer nach meinem Eindruck der Idee eben gerade nicht „überwiegend sehr skeptisch“ gegenüberstanden. Wie Martina schreibt, das Spektrum der Meinungen ist breit, wobei jedoch die harsche Total-Ablehnung eines Boteinsatzes (auch für mich überraschenderweise) kaum mehr vorkommt. Als Versuch einer Zusammenfassung der Positionen der dortigen Teilnehmer an der deutschsprachigen Diskussion (sie mögen mich korrigieren, wenn ich falsch liege):

  • Drahreg01 sieht die Gefahr einer Zementierung des Status quo, würde aber eine Vorgehensweise mit Markierung „inhaltlich nicht geprüfter und automatisch gesetzter Archivlink einer am {Datum} toten URL – bitte prüfen“ für denkbar halten.
  • Varina würde eine komplett automatische Ersetzung für problematisch halten, einen Einsatz des Bots zum Beheben des Missstands, „dass Aussagen durch tote Weblinks unbelegt werden“, aber begrüssen.
  • Matthiasb plädiert für eine differenzierte Herangehensweise, wobei er die Notwendigkeit von Mementos in Fällen, in denen es darum geht, auf aktualisierten/umgebauten Websites nicht mehr Auffindbares zu belegen, anführt.
  • Mirer „will diesen Bot!“ und findet, dass er für Einzelnachweise „(fast) nur Vorteile“ bringe.
  • Raymond: „Ich halte den Bot für die Reparatur defekter Online-Einzelnachweise für sehr sinnvoll“, jedoch nicht für den Abschnitt „Weblinks“.
  • Martina Nolte „Für mich klingt dein Bot (mit den Opt-out-Möglichkeiten) wirklich gut!“, ist aber wie ich der Ansicht, dass es mindestens eine Umfrage für einen Einsatz des Bots brauche.
  • Giftzwerg 88 spricht sich für den Bot aus, „ohne Bot wird sich der Artikel entsprechend der wachsenden Zahl von toten Links unbemerkt und stillschweigend verschlechtern“.
  • Bobo11 spricht sich dafür aus, früher anzusetzen und bereits beim Setzen von Weblinks sicherzustellen, dass ein passender Archivlink generiert wird.
  • H-stt kritisiert Archivlinks am konkreten Beispiel von defekten Links zum National Park Service der USA, die er durch aktualisierte Live-Links zum aktualisierten Angebot des NPS ersetzen konnte.
  • H7 hätte sich bei einem konkreten Problem einen solchen Bot gewünscht, „mir kann keiner weismachen, so ein Bot sei nicht sinnvoll“.
  • Sebastian Wallroth spricht sich für den Bot aus und wünscht sich dabei ähnlich wie Bobo11, dass auch bereits per Bot rechtzeitig für Archivlinks gesorgt wird („Ein Bot würde alle Weblinks in der Wikipedia crawlen und sicher stellen, dass auf Archive.org eine Kopie der Seite vorliegt. Wenn ein Weblink tot ist und eine Kopie bei archive.org vorliegt, wird der Archivlink bei Wikipedia eingetragen“).
  • Ich selbst, Gestumblindi, denke, dass wir aus praktischen Gründen kaum mehr um einen Boteinsatz herumkommen („Man hat schlicht keine Zeit / Kapazität, um jeden Fall einzeln zu prüfen. Das ist tatsächlich die Situation, in der wir uns befinden, dieser Realität muss man ins Auge sehen“) und sehe am ehesten einen semi-automatischen Einsatz auf Wunsch der Artikelautoren.

Der Vollständigkeit halber (ich hoffe, ich habe niemanden vergessen): Stepro hat dort nur gewünscht, die Diskussion auf deutsch zu führen, sich aber inhaltlich nicht weiter geäussert. In der vorangehenden, auf die ausführliche Darstellung von Cyberpower678 folgenden englischen Diskussion schrieb MisterSynergy, dass er nicht glaube, dass die Community einen solchen Bot in der deutschsprachigen Wikipedia zulassen würde, und dass er sogar erstaunt wäre, wenn eine semi-automatische Funktionalität Zustimmung finden sollte (das war im Wesentlichen auch meine Vermutung in der kurzen ersten Diskussion auf WP:PRD). Diese Vermutung/Befürchtung wird aber inzwischen von den oben zusammengefassten Statements nicht untermauert, sondern eher in Frage gestellt. Succu fragt im englischen Abschnitt nach Urheberrechtsverletzungen durch den Bot, was ich nicht recht nachvollziehen kann. Holder wünscht einen Einsatz des Bots in der alemannischen und Joe Watzmo in der bairischen Wikipedia (@Holder, Joe Watzmo: Cyberpower678 hat dafür um einen Konsens-Nachweis in den jeweiligen Wikipedias gebeten, hat die Sache schon Fortschritte gemacht?). Gestumblindi 23:36, 18. Jul. 2017 (CEST)

Ja, Semi-Automatisch wird am sinnvollsten sein. Mir schwebt folgendes vor;
1. Mit einem Bot Ref-Webseitenlinks sichern lassen (denn ohne vorhandene Archivversion klappt Rest nicht).
2. Das wenn eine Webseite down ist (Fehler 404 usw), dass per Bot auf der Diskussionsseite ein Hinweis generiert wird (ist ja schon jetzt der Fall).
3. Das dieser Meldung ein Link auf die richtige Archivversion (die aus Schritt 1), als Ersatzvorschlag angefügt wird. (ggf. erst wenn Botlauf zweimal die selbe Webseite down gemeldet hat.)
4. Per Bot, bei den Totenlinks im Artikel einen Hinweis setzen lässt, dass auf Diskussionsseite Archivversion-Link hinterlegt ist.
Das Ersetzen des Weblinks im Artikel würde ich aktuell noch händisch machen lassen (es ist einfach eine gesundes Misstrauen angebracht, ob der vorgeschlagene Archivlink auch der richtige ist). Wenn man im Artikel ein Hinweis ist, wo man die Archivversion findet, ist das schon die halbe Miete.
Am besten lässt man über Punkte 3+4 im MB einzeln abstimmen (Punkt 1 Tut den Autoren nicht weh Punkt 2 haben wir schon). Dann wird klarer wie weit die Comunity bereit ist, denn Bot's das Feld zu überlassen.--Bobo11 (Diskussion) 23:56, 18. Jul. 2017 (CEST)
Danke für die Zusammenfassung, Gestumblindi. Ich sehe weiter die Gefahr, dass man erst viel diskutiert und einen Modus ausarbeitet, dieser aber später doch (von anderen Autoren) nicht akzeptiert wird. Deshalb ist ein robustes Meinungsbild sicher das beste Mandat zur Absicherung der Aktion. Zurzeit ist die Vielfalt der Unterstützungsmöglichkeiten durch den Bot das Hauptproblem, weshalb sich wohl auch niemand wirklich festlegen mag. Wie könnte man das auf brauchbar wenige, dafür aber klare Konzepte eindampfen? —MisterSynergy (Diskussion) 06:48, 19. Jul. 2017 (CEST)
@Gestumblindi: Die Abstimmung in der Alemannischen Wikipedia ist 11:0 für die Einführung des Archivbots ausgefallen (Holder ist zur Zeit im Urlaub, ich weiß deshalb nicht, ob die sich schon an Cyberpower678 gewendet haben, ich gehe davon aus), in bar.wiki läuft die Abstimmung noch (bislang ebenfalls keine Gegenstimme). --Joe Watzmo (Diskussion) 06:50, 19. Jul. 2017 (CEST)
Dann erhebe ich die Fundamentalopposition. Ich möchte nicht, dass ein Bot an den Inhalten der deWP bastelt. Auch nicht in dieser reduzierten und vermeintlich beherrschbaren Form. Beim Überprüfen der botgenerierten Hinweise auf tote Weblinks sind mir zu oft false positive Meldungen aufgefallenw, also Einträge für Weblinks, die bei mir ohne jedes Problem liefen. Eine automatische Ersetzung solcher Links durch Archivversionen hat gravierende Nachteile, ich lehne sie ab. Kulturell spricht gegen einen solchen Bot alles, was generell gegen Weblinks als Belege spricht: Sie sind, anders als Papierbelege, nicht stabil. Websites können sich bei gleicher URL inhaltlich ändern, sie können „umziehen“ und gelöscht werden. Bei Papier ist das nicht der Fall. Deshalb ist Papier nach wie vor vorzuziehen, der Bot würde Weblinks einfacher, „verlässlicher“ machen und damit fördern. Ich möchte auch das nicht. Grüße --h-stt !? 16:27, 19. Jul. 2017 (CEST)
Du hast sicher einen Lösungsvorschlag, wie wir das Toter-Link-Problem ohne Bot in den Griff bekommen? Das Problem an sich ist ja nun einmal in der Welt, und Onlinequellen sind als Belege in einer Onlineenzyklopadie unverzichtbar. —MisterSynergy (Diskussion) 17:11, 19. Jul. 2017 (CEST)
Wie bisher: Botmeldungen auf der Disk. Reparatur nur durch Menschen. Grüße --h-stt !? 18:17, 19. Jul. 2017 (CEST)
Das ist weniger Fundamentalopposition als nach Deinem Kommentar befürchtet, aber immernoch ziemlich viel angesichts der Tatsache, dass die Botmeldungen auf den Diskussionsseiten nicht zufriedenstellend durch Menschen weggearbeitet werden. —MisterSynergy (Diskussion) 18:54, 19. Jul. 2017 (CEST)
Wen nicht befriedigend? Tote Links sind nun mal ein inherentes Risiko, das man immer eingeht, wenn man Weblinks als Belege einsetzt. Dass immer mal wieder ein paar Links nicht mehr erreichbar sind, stellt daher für mich kein fundamentales Problem dar. Die Botläufe mit Markierung auf der Disk funktionieren. Die Abarbeitung findet stetig statt und macht Fortschritte. Effizienz (durch Bots) ist nicht alles, denn der Boteinsatz bring eigene Risiken mit (siehe oben). Ich lehne ihn daher im Inhalt der Wikipedia ab. Grüße --h-stt !? 19:07, 19. Jul. 2017 (CEST)
Der Botlauf auf den Diskussionsseiten funktioniert nicht wirklich – das letzte Update ist eineinhalb Jahre alt und ein kontinuierlicher Betrieb ist offenbar nicht so recht praktikabel möglich und vor allem wäre er sehr aufwändig. Nach meiner Erinnerung ist ca. eine Viertelmillion Meldungen nach wie vor unbearbeitet, und nach dem Weblinkkorrektur-Wikiprojekt liegt die Zahl der Artikel mit defekten Weblinks mittlerweile deutlich über einer halben Million. Natürlich kann man da sagen: „Pech gehabt, lieber Leser!“ und einfach den toten Link da stehen lassen. Ein automatisch eingefügter Archivlink, der ja deutlichst als solcher zu erkennen ist, bietet da in jedem Fall einen Mehrwert.
Trotzdem bin ich von Deiner Form der Fundamentalopposition nicht überrascht, ich habe sie in genau der Form erwartet. Wenns ums effiziente Arbeiten geht, stellt sich leider immer jemand früh in den Weg. Aus dem Grund habe ich bei dem Botbetreiber auf der Kurierdisk versucht anzufragen, wie wir mit seinem Alogrithmus das Problem nach hier etablierten Methoden angehen könnten (i.e. Diskussionsseitenmeldungen, oder sonst geeignete Abfrage der Auswertung seiner Linkprüfung). Leider hat er nicht so recht geantwortet, vielleicht war meine Anfrage auch nicht klar genug. Wenn das hier scheitert und am Ende überhaupt kein Botbetrieb stattfindet (und sei es nur auf Diskussionsseiten), dann wäre ich jedenfalls einmal mehr ziemlich frustriert. Die Giftbot-Meldungen im für mich interessanten Themenbereich habe ich damals sofort abgeräumt, und jetzt fault das seit 18 Monaten vor sich hin, ohne dass ich daran was machen könnte ein SmileysymbolVorlage:Smiley/Wartung/:-( MisterSynergy (Diskussion) 19:26, 19. Jul. 2017 (CEST)
@MisterSynergy: Tut mir leid. Ich habe deine Frage total übersehen. Um es kurz zu beantworten, es gibt ein IABot API. Sehe m:InternetArchiveBot/API. Hoffentlich hilft es.—CYBERPOWER (Diskussion) 03:41, 20. Jul. 2017 (CEST)
@Cyberpower678: ja genau sowas suche ich, das sieht grundsätzlich auch ganz hilfreich aus und ich schaue mir das mal ein wenig genauer an. Mit dewiki funktioniert das aber noch nicht, korrekt? —MisterSynergy (Diskussion) 10:43, 20. Jul. 2017 (CEST)
@MisterSyneregy: Dewiki funktioniert noch nicht. Aber sämtliche Funktionen gibts auch wenn dewiki noch nicht unterstützt ist.—CYBERPOWER (Diskussion) 16:28, 20. Jul. 2017 (CEST)
@Cyberpower678: Das API scheint in der Tat ganz nützlich zu sein, unabhängig von der Botaktivität im wiki selbst. Ich wäre Dir höchst dankbar, wenn Du die Datenbank mit den Ergebnissen der Weblinkprüfungen für dewiki aufsetzen würdest, selbst wenn das hier (mal wieder, und nicht unerwartet) zerredet wird und am Ende keine Botaktivität stattfinden darf. —MisterSynergy (Diskussion) 19:47, 20. Jul. 2017 (CEST)
@Cyberpower678: Hast Du das hier mglw. übersehen? Dankeschön und Viele Grüße! —MisterSynergy (Diskussion) 18:34, 22. Jul. 2017 (CEST)
Nein habe ich nicht. Das kann ich schon machen. :-)—CYBERPOWER (Diskussion) 22:47, 22. Jul. 2017 (CEST)
Ich kann mit einer Viertelmillion toter Links leben. Wenn sie wichtig sind, wird sie irgendwann irgendwer korrigieren. Ich möchte nicht mit einem Bot leben, der im Inhalt rumbastelt, solange er Fehler macht, die Menschen nicht machen. Grüße --h-stt !? 18:44, 20. Jul. 2017 (CEST)
@H-stt: „Kulturell spricht gegen einen solchen Bot alles, was generell gegen Weblinks als Belege spricht: Sie sind, anders als Papierbelege, nicht stabil“ – diese Argumentation könnte man ja gerade „pro Bot“ umdrehen: Durch Archivlinks werden ansonsten flüchtige Internet-Belege zumindest so lange stabil, wie das Archiv existiert. Persönlich ziehe ich Papier-Belege auch vor, aber die Realität ist nun mal, dass wir hier sehr viele Online-Belege haben und sich vieles heutzutage auch gar nicht mehr anders belegen lässt. Und was die false positives angeht: IABot ist ja nicht GiftBot. Nichts gegen die sehr wertvolle Arbeit des GiftBot, aber es ist durchaus möglich, dass das Problem von false positives beim IABot nicht so ausgeprägt ist, da er anders programmiert ist. Weiter oben hat Cyberpower678 geschrieben: „Wenn IABot eine URL besucht, der Bot sieht aus wie ein Chrome Webbrowser, den Server gegenüber. Aber JS ist nicht unterstützt. Also der Algorithmus ist 99 % akkurate mit Webseiten als Lebend oder als Tot zu erkennen.“ Natürlich ist die absolute Zahl fälschlicherweise als tot erkannter Links auch dann, wenn der Bot zu 99 % richtig liegt, bei hunderttausenden toten Links immer noch beträchtlich. Aber den Lesern würde durch ein paar tausend fälschlich als tot markierte Links wohl ein geringerer Nachteil erwachsen als durch hunderttausende, die wirklich nicht mehr erreichbar sind. Im übrigen würde ich aber eh nicht für einen vollautomatischen Einsatz quer durch die Wikipedia plädieren. Gestumblindi 03:22, 20. Jul. 2017 (CEST)
Wenn ich das recht sehe hat der Bot ja die Option, dass man ihm sagen kann welche Webseiten bei seinen Suchläufen prinzipiell ignorieren soll. Man kann ihm also sagen welche der 1 % fälschlicherweise als Tod erkannt Webseiten, er gar nicht mehr beachten soll. Weil sie eben der Web-Programmierung als tot erkennt, aber in echt noch On sind. Somit kann das Problem entschärft werden, weil man für ihn die Problem-Seiten markieren kann. Sein wir doch ganz ehrlich, lieber 1 % händisch pflegen als 100 %. Genau wegen der nicht 100 % Fehlerfreiheit bin ich ja auch einer der gegen ein automatisches Ersetzen bin. Mit dem Auftrag „nur Markieren“, kann man beim händischen Nachbearbeiten solche „Faxen“ erkennen.--Bobo11 (Diskussion) 09:39, 20. Jul. 2017 (CEST)
Das ist jetzt etwas off topic, aber könnte man mal mit Aka reden, ob er in seine Heldengalerie tote Weblinks integrieren kann? Gamification ist immer ein guter Antrieb und würde die „Schlagzahl“ bei der Tote-Weblinks-Abarbeitung erhöhen. Außerdem könnte man vielleicht mal im Kurier auf dieses Tool von Hgzh hinweisen (andere Namen einsetzen), damit ein paar Leute zumindest mal feststellen, was sich da vor ihrer Haustür an Schimmel angesetzt hat. Ansonsten bleibe ich bei dem, was ich weiter oben schon gesagt habe – Bot gut, aber Information, was gemacht wurde und wie der Ursprungszustand war, auf Disk und per Wartungsliste auffindbar. Viele Grüße, Grueslayer 11:08, 20. Jul. 2017 (CEST)
@Gestumblindi: Aber den Lesern würde durch ein paar tausend fälschlich als tot markierte Links wohl ein geringerer Nachteil erwachsen als durch hunderttausende, die wirklich nicht mehr erreichbar sind. Vehementer Widerspruch. Ein toter Weblink ist ärgerlich, ein fälschlich als tot angegebener Link ist ein Fehler und unbedingt zu vermeiden, zumal es keinerlei Garantie gibt, dass der Archiv-Link die „richtige“ Version zeigt. Mit solchen Experimenten setzt man die Seriosität auch derjenigen Wikipedia-Artikel, die seriös sind, aufs Spiel. Einen automatisierten Eingriff in den Artikelnamensraum sollte man genau aus diesem Grund nicht zulassen. Als Hilfsmittel okay, als Editor m.E. ausgeschlossen.--Mautpreller (Diskussion) 13:39, 20. Jul. 2017 (CEST)
Jeder false positive ist ein echter und schwerwiegender Fehler. Während tote Weblinks einfach die natürliche Folge des link rots sind und immanente Folge jeder Entscheidung für Weblinks als Belege. Ich spreche mich für eine Priorität der guten alten Papierbelege aus. Weil sie dieses Problem nicht kennen. Wenn man schon Weblinks benutzt (tue ich ja auch, ständig), muss man halt mit link rot leben. Ein Bot und automatisierte Archivlinks sind keine zufriedenstellende Lösung. Bots können nicht prüfen, ob die Archivversion den belegten Inhalt aufweist, Bots machen false positive-Fehler, Bots können nicht prüfen, ob der Beleg nicht nur umgezogen ist und in identischer Form unter einer neuen URL zur Verfügung steht. Das alles können nur Menschen. Grüße --h-stt !? 18:41, 20. Jul. 2017 (CEST)
Nun das „false positive“ ist eine Argument, dass man Bot's nichts ersetzen lässt. Der Hinweis „ursprünglicher Weblink ist tot, möglicher Ersatz wäre >Hier<“ kann Fehler vertragen. Sei es jetzt das der Weblink nicht Tod ist, oder die vorgeschlagenen Ersatzseite eben kein Ersatz ist. --Bobo11 (Diskussion) 00:33, 21. Jul. 2017 (CEST)
Nö, dann wird im Artikelnamensraum behauptet, dass der Link tot ist. Das ist dann glatt falsch. Das hieße, dass wir einen Bot Fehler in den ANR schreiben lassen.--Mautpreller (Diskussion) 13:35, 21. Jul. 2017 (CEST)
Ebenfals NÖ @Mautpreller:, der Bot hat die Option das er nur auf Dsikusion schreiben darf. Da ist es sicher kein Fehler. Deswegen hab ich heute -ich hoffe in deinem Sinn- vorne die Version 0 eingefügt.--Bobo11 (Diskussion) 22:57, 21. Jul. 2017 (CEST)
Okay, wenn der ANR nicht angetastet wird, dann in Ordnung. Noch lautet aber die Frage: „Das vorliegende Meinungsbild schlägt vor, dem InternetArchiveBot für definierte Aufgaben zu erlauben, Änderungen im Artikelnamensraum der deutschsprachigen Wikipedia vorzunehmen.“ Für Variante 0 müsste man dann mit Nein stimmen.--Mautpreller (Diskussion) 11:41, 22. Jul. 2017 (CEST)
Wenn „der ANR nicht angetastet wird“, dann verstehe ich nicht, worin der Vorteil gegenüber dem GiftBot bestünde. Nochmal, Bobo11, kannst du bitte mit konkreten Vorschlägen auf der Vorderseite warten, bis sich Initiator(en) und Unterstützer einig sind. Der vorzeitige Vorstoß stiftet Verwirrung und verursacht Mehrheit. --Martina Disk. 21:20, 23. Jul. 2017 (CEST)
Ohne ANR-Aktivität bestünde der Vorteil gegenüber dem Giftbot darin, dass wir jederzeit aktuelle Informationen über alle URLs haben. Soweit ich das verstanden habe, ist das mit dem Giftbot zu aufwändig, weshalb wir nur alle paar Jahre einen neuen Botlauf bekommen. —MisterSynergy (Diskussion) 21:25, 23. Jul. 2017 (CEST)
Oh okay, so war das nicht bei mir angekommen. Ich dachte, wir lassen den GiftBot absichtlich nicht so oft laufen, weil so viele Seiten betroffen sind? Wer kann das mit Bestimmtheit sagen (und die Gründe einigermaßen OMA-tauglich erklären)? Danke! --Martina Disk. 21:29, 23. Jul. 2017 (CEST)
Naja das ist halt so das Problem. Vor dem letzten Giftbotlauf hatte ich meinen Arbeitsbereich gut runtergearbeitet, dann kam der 2015/16er-Lauf und da kam eine gute neue Zahl von Fällen rein, die ich auch sofort erledigt habe (dauerte ja drei Monate oder so). Seitdem… ist nichts mehr (stimmt nicht ganz: Giftpflanze hat mir dankenswerterweise auf Nachfrage meinen Arbeitsbereich einmal extra ausgewertet). AFAIK hat das Betreiberteam durchaus neuere Daten vorhanden (oder kann sie recht schnell ermitteln), aber das dauerhaft zu verteilen ist nicht so einfach. Es war ja auch so, dass das Zurückmelden der False-Positives mit augenscheinlich einigem Aufwand für das Giftbot-Team verbunden war.
Um zumindest hier eine Verbesserung hinzubekommen, habe ich weiter oben den Benutzer:Cyperpower678 als Betreiber des IABots gefragt, ob er uns die Linkprüfergebnisse in seinem Tool zur Verfügung stellen kann. Das plant er jetzt auch. Das API erlaubt dann nämlich die Abfrage von toten Links, so dass wir jederzeit aktuelle Daten haben können. Es wäre dann gar denkbar, dass überhaupt kein IABot hier tätig wird (auch nicht auf Diskussionsseiten), sondern dass bspw. der Taxonbot das monatlich oder so abfragt und regelmäßig die Portalwartungslisten damit befüllt. Ich kann die Prüfergebnisse des IABots noch nicht einschätzen (Giftbot war da ziemlich gut, fand ich), aber der technische Unterbau scheint mir beim IABot deutlich umfangreicher zu sein, was dann eben auch die Nutzungsszenarien erweitert. —MisterSynergy (Diskussion) 21:48, 23. Jul. 2017 (CEST)
@MisterSynergy: Um klar zu sein, die URLs die bei der Deutschen Wikipedia benutzt werden sind nur aktuell wenn IABot zumindest of der Deutschen Wikipedia im Hintergrund läuft, so das er die Links weiter prüfen tut. Das heisst, der geht rum und analysiert die Links, aber macht absolute nichts of Wikipedia. Aber andere Bots/Tools kann mit dem API auch links als Tot markieren und bessere Archiv URLs IABot weiter geben.—CYBERPOWER (Diskussion) 21:59, 23. Jul. 2017 (CEST)
Richtig, im Hintergrund müssten natürlich die Links geprüft werden und es wird einige Zeit dauern, bis das einmal alle geprüft sind (ich glaube es gibt gerade so 20M Weblinks). Das kann jedoch so sehr im Hintergrund passieren, dass onwiki keinerlei Aktivität bemerkbar ist. In dem Falle wärest Du bequem raus, denn niemand kann (und will) Dir das Prüfen von Links verbieten. Auf welche Weise die Ergebnisse dann verteilt werden, müssten wir hier entscheiden, und Du machst uns hier im Grunde gerade das Angebot, das bei Gefallen auch gleich zu erledigen.
Wir müssen immer im Kopf behalten, dass das eigentlich ein mindestens zweischrittiger Prozess ist. Die Prüfung und das Vorhalten der Prüfergebnisse findet ohne Aktivität im Wiki statt, und da haben wir zurzeit keine ständig laufende Alternative zum IABot-Framework. Als zweiten Schritt hat man dann die Verteilung der Ergebnisse in die Communities, oder eben auch eine automatische Reparatur, sofern gewünscht. —MisterSynergy (Diskussion) 22:06, 23. Jul. 2017 (CEST)
MisterSynergy: Für reine Prüfläufe und Einträge auf eine oder mehrere Ergebnisliste(n), braucht der Bot aber doch kein Meinungsbild, oder?
Meiner Auffassung nach brauchen wir auch kein Meinungsbild, um auf Diskussionsseiten die unerledigten GiftBoteinträge um weitere defekte Links zu ergänzen. Hier wäre lediglich eine Abstimmung der beiden Botbetreieber(teams) nötig. Wünschenswert wäre auch, wenn der IABot die bereits bekannten false positives eingefüttert bekäme, und möglichst die abgearbeiteten älteren GiftBot-Einträge (in der Versionsgeschichte) nicht nochmal einträgt. Das Meinungsbild halte ich nur für nötig, wenn der Bot irgendetwas im Artikelnamensraum anstellen soll.
@Gestumblindi, @all: Oder wie seht ihr das? --Martina Disk. 02:10, 24. Jul. 2017 (CEST)
Martina, da stimme ich ganz zu. Die Skepsis besteht gegenüber Boteinsätzen im ANR. Wenn IABot, wie Cyberpower678 schreibt, nur im Hintergrund laufen, „herumgehen“ und Links analysieren, dabei aber nichts in der Wikipedia machen würde, könnte wohl kaum jemand etwas dagegen haben. Das könnte man m.E. ganz unabhängig von diesem Meinungsbild machen bzw. auch wenn ein Einsatz des IABots hier abgelehnt werden sollte. Gestumblindi 10:16, 24. Jul. 2017 (CEST)
Ich hätte auch deutlich weniger Bedenken, wenn Aktivität im ANR ausgeschlossen wird, frage mich allerdings, wie der GiftBot und der IABot dabei harmonieren. Nach meinem Eindruck funktioniert der GiftBot eher besser. Ich habe allerdings die Idee nicht voll verstanden. Es gibt da den Vorschlag, dass die Links analysiert werden, aber „keinerlei Aktivität onwiki“ stattfindet. Das ist aber ja nur der Anfang, denn irgendwie muss die Community die Ergebnisse erfahren („zweiter Schritt“, MisterSynergy). Das kann zum Beispiel auf der Diskussionsseite geschehen, nur fragt sich, in welcher Form. Wenn neben der GiftBot-Meldung auch noch die IABot-Meldung auf der Disk aufschlägt, womöglich mit differierenden Ergebnissen, ist das nicht unbedingt ein Gewinn. MisterSynergys Anliegen war, die Ergebnisse der Prüfung ständig oder wenigstens öfter zu erfahren, wenn ich es recht sehe, aber dafür braucht man ja eigentlich nicht zwei Bots, oder?--Mautpreller (Diskussion) 10:28, 24. Jul. 2017 (CEST)
Beide Meldungen zu vermischen halte ich für ein schwieriges Unterfangen seitens der involvierten Botbetreiber, und eigentlich auch für unerwünscht seitens der Community. Es wäre schon schön, wenn direkt klar ist welcher Bot hier welches Prüfergebnis produziert hat. Sonst melde ich Falsch-positive möglicherweise dem falschen Bot, oder so. Differierende Ergebnisse halte ich nicht für problematisch, denn Weblinkprüfung ist keine triviale Angelegenheit und mehr Ergebnisse führen am Ende nur zu besseren Lösungsoptionen. Bei zwei Bots wäre das auch noch bei Weitem nicht unübersichtlich. Letztlich ist das onwiki-Meldungsmanagement über Diskussionsseiten hier aber aus technischer Sicht eigentlich eine schlechte Lösung.
Wenn Benutzerin:Giftpflanze & Team mit ihrem Bot einen Permabetrieb hinbekämen, wäre ich schon komplett zufrieden und IABot-Funktionalität wäre nicht mehr notwendig, trotzdem noch nützlich. Eine Toolvielfalt haben wir an vielen Stellen, und das ist eigentlich immer positiv zu beurteilen. —MisterSynergy (Diskussion) 10:38, 24. Jul. 2017 (CEST)
@MisterSynergy: Falls zwei Bots parallel laufen, sollten Falschpositive auf den ignore-Listen beider Bots stehen, oder? Im Idealfall macht der User nur einen Eintrag, der an beide Bots ausgeliefert wird. @Mautpreller: Meinem Verstädnis nach kann der IABot auf Labs oder onwiki (?) eine Liste (mutmaßlich) kaputter Links anlegen und anzeigen, in welchen Artikeln sie vorkommen. Anscheinend ist eine solche Liste auf Labs nur für die Administratoren eines freigeschalteten Wikis einsehbar – insofern ist mir unklar, welche Information dort zu sehen wäre. Diese erkannten Links können auf eine Wartungsliste eingetragen werden (wo??) und/oder auf die Diskussionsseiten der betroffenen Artikel. Der IABot ließe sich vom GiftBot mit Links und Artikeldiskseiten „füttern“, die der IABot ignorieren soll (um Duplikate zu vermeiden). Er kann offenbar auch mit der Liste der false positives vom GiftBot „angelernt“ werden. Theoretisch. (Ich sehe noch nicht den Wunsch des GiftBot-Teams, ihren Bot quasi zum Zulieferer des IABot umzustricken.) --Martina Disk. 09:14, 26. Jul. 2017 (CEST)
Sollte IABot tatsächlich in betrieb sein, auch nur im Hintergrund, kann die Ignorier liste auf IABot verwaltet werden, nur so als Idee. Giftbot kann die URLs von IABot abfragen, und IABot antwortet ob es Weissgelistet ist oder nicht. Eine zentrale DB macht es für zwei bots viel leichter, und IABot bietet dieses DB nicht für Dewiki URLs aber andere wikis, einschliesslich enwiki, auch. Die Ignorier liste ist schon wahrscheinlich mehr Komplett. Nur so eine Idee. Hier ist eine Beispiel. IABot wurde nachgefragt über Informationen über die URL https://kso.etjanster.lantmateriet.se/?e=625021&n=7511594&z=8&profile=default_fjallkartan_noauth. Das gibt eine JSON Antwort, und bei „live_state“ steht da „whitelisted“. Das heisst IABot ignoriert dieses URL und betrachtet den immer als Lebendig und prüft nicht nach ob es wirklich lebt oder nicht.—CYBERPOWER (Diskussion) 15:18, 26. Jul. 2017 (CEST)

Abstimm Version 1

Ich war mal so frei und hab eine eher restriktive aber meiner Meinung nach mehrheitsfähigen Abstimmoption eingefügt. Das wir den Bot zulassen aber eben nur als Markier-Hilfe, und der Ersatz des Toten Weblinks durch Archiv-Weblink muss händisch erfolgen. --Bobo11 (Diskussion) 10:21, 19. Jul. 2017 (CEST)

Damit es auch eine echte Versionsabstimmung wird, Version 2 für alle Weblinks. Im Gegesatz zur Version 1 wo er auf Referenzierungs Weblinks beschränkt wird. --Bobo11 (Diskussion) 12:56, 19. Jul. 2017 (CEST)
Und natürlich nach die Option 3, Volle Rechte, sprich soll seien Fähigkeiten nutzen dürfen. Wer eine Weitere Option sieht nur zu.--Bobo11 (Diskussion) 13:05, 19. Jul. 2017 (CEST)
Ich kam, sah und schrieb – eine Unteroption. Den Vorschlag 2 kann man nämlich sehr gut als Opt-Out (Bot ist Standard, man kann sich aus seinem arbeitsbereich nehmen) und Opt-In (wenn man die Hilfe will, kommt ein Auftrag) aufteilen. Grüße, Grand-Duc ist kein Großherzog (Diskussion) 17:11, 19. Jul. 2017 (CEST)
@Grand-Duc: die Option gäbe es auch in der 1 Variante. Aber ob das sinnvoll ist und das die Abstimmenden verstehen, dass hier wirklich die Frage. Das solle man versuchen auf dösseln, und verständlich zu erklären was denn nun ohne Nachfrage Freigeschaltet wird, bzw. was von einem Portal gesperrt werden kann. Bzw. Was eben per Zuruf freigeschaltet werden soll, der Rest aber vom Bot ignoriert wird. ICh vermute auch, dass das ein Schritt für Schritt sein sollte. Solange der eben keine toten-Links löscht, kann man da noch eingreifen, wenn der Bot nicht das macht was man von ihm verspricht.--Bobo11 (Diskussion) 23:51, 19. Jul. 2017 (CEST)

Man sollte tatsächlich eine Opt-in-Abstimmvariante vorsehen. Mir reicht übrigens nicht die Opt-out-Version für Portale. Unerlässlich ist die Möglichkeit, einzelne Artikel gegen Botaktivitäten zu schützen.--Mautpreller (Diskussion) 13:48, 20. Jul. 2017 (CEST)

Vorschlag 1 könnte lauten: Keine Botedits im Artikelnamensraum. Nur auf der Diskussionsseite und/oder in einer Wartungsliste wird angegeben, dass der Link nicht geht, und ein Archivlink vorgeschlagen. Das ist die einzige Variante, der ich zustimmen könnte.--Mautpreller (Diskussion) 14:42, 20. Jul. 2017 (CEST)

Das die jetzige Version 1 und die Version 2a Mit Opt-in-Abstimmvariante in der Auswirkung ähnlich sind, kann meine Abstimmoption 1 durchaus weg, damit es nicht zu viele werden. Denn in der 2a werden die Nicht-Reflinks nur dann freigegeben, wenn es das entsprechend Portal als sinnvoll erachtet. @Mautpreller: nur zu füge deine Vorschlag an erster Stelle ein. Mir ist es recht wenn jemand auf Abstimmversion mit einer ganz strenge Handhabung kommt. Denn es soll wirklich mal geklärt werden, wo und wie weit wir Bot's zulassen wollen. Einmal eine Richtschnur für Bot's zu haben würde nicht Schaden. Damit man nicht jedes mal eine Grundsatzdiskussion lostreten muss, wenn jemand mit einer Bot-Idee anklopft. Ich bin mir auch sicher, dass auch die Entwickler gerne wissen würden, was ihre Bots' in der De:Wikipedia können müssen (z.B. Was ein- und ausgeschaltet werden können muss). --Bobo11 (Diskussion) 00:04, 21. Jul. 2017 (CEST)

Automatische Reparaturen

kommen m.E. überhaupt nicht in Frage. Aufnahme in eine Wartungskategorie bzw. Hinweis auf der Diskussionsseite sind hingegen nützlich. Jeder automatisierte Edit im Artikelnamensraum kann Schaden stiften, wenn er nicht vorher von verantwortlich handelnden Menschen geprüft wird. Dagegen wiegt das „Hinterherhinken“ bei toten Links nicht schwer.--Mautpreller (Diskussion) 13:32, 20. Jul. 2017 (CEST)

Nun es steht bis jetzt nur eine Version vorne zur Wahl, die genau das zulassen würde. Das diese Version Mehrheitsfähig ist, da hab ich auch so meine Zweifel. Sie muss aber eben rein, damit man ein klares Resultat hat, wie weit die Leute hier bereit sind Bot's zu vertrauen. Fehler zu suchen und zu markieren, ist in der Regel stupide Drecksarbeit, um es mal deutlich zu sagen. Ist es nicht sinnvoller die doch endliche menschliche Arbeitszeit auf den Bereich zu konzentrieren, wo Bedenken vorliegen? Was ja nicht anderes heissen würde als, dass man sich auf die Fehlerbehebung konzentriert. Und sich bei der Fehlersuche bzw Fehlererkennung sich durch Helferelein's unterstützen lässt. --Bobo11 (Diskussion) 23:55, 20. Jul. 2017 (CEST)
Sehe ich anders. Wir sollten m.E. nur zur Abstimmung stellen, was wir wirklich wollen und für mehrheitsfähig halten. --Martina Disk. 02:09, 23. Jul. 2017 (CEST)

Urheberrecht?

In wiefern stellen die im Internet Archive vorgehaltenen Kopien keinen Verstoß gegen das Urheberrecht in Deutschland, Österreich und der Schweiz dar? --Succu (Diskussion) 00:14, 21. Jul. 2017 (CEST)

@Succu: Das ist eine interessante Frage. Allerdings eine, die man (auch) an anderer Stelle stellen könnte – schliesslich wird das Verlinken des Internet Archive in der deutschsprachigen Wikipedia bereits breit praktiziert, mit aktuell schon über 52'000 Links, wir haben dafür Vorlagen wie {{Webarchiv}} bzw. Parameter in den Weblink-Vorlagen usw. Der aktuelle Status in der deutschsprachigen Wikipedia ist damit seit Jahren, dass das Internet Archive intensiv genutzt wird – und auch wenn man die urheberrechtliche Situation theoretisch hinterfragen kann, so scheint sich der Betreiber des IA selbst in Amerika gut auf fair use berufen zu können, auch die deutschsprachige Wikipedia ist letztlich ein Projekt der amerikanischen Wikimedia Foundation, und damit sind Links auf das IA wohl haltbar. Ich weiss nicht, ob dieses Meinungsbild der richtige Ort für die Grundsatzfrage ist, ob man aus DACH-urheberrechtlicher Sicht überhaupt auf das Internet Archive verlinken soll/kann/darf, und würde eher sagen: die Grundsatzfrage scheint aktuell durch die Praxis bejaht, hier stellen wir nur die Frage, ob man dafür auch einen Bot einsetzen kann. Gestumblindi 00:29, 21. Jul. 2017 (CEST)
Ich halte das für fahrlässig. Urheberrechtliche Fragen sollte man ernst nehmen, d.h. eine Abwägung vornehmen, ob das im Einzelfall tragbar ist oder nicht. Also verantwortlich handeln. Das kann ein Bot nicht.--Mautpreller (Diskussion) 10:27, 21. Jul. 2017 (CEST)
Ich bezweifle, dass die gespeicherten Komplettkopien von beispielsweise Webseiten oder PDFs durch Fair Use gerechtfertigt werden können. --Succu (Diskussion) 22:54, 21. Jul. 2017 (CEST)
Vor allem auf Dauer! Temporäre Kopien mögen ja noch gehen, Permanentkopien wohl kaum.--Mautpreller (Diskussion) 11:49, 22. Jul. 2017 (CEST)

Viele solche Fälle betreffen Internetrepräsentationen von Druckerzeugnissen. Bei korrekter Angabe der Publikation ist ein Weblink ein Zusatz-Service. Ich bin keineswegs begeistert davon, wenn an solchen, öfter mal toten, Links herumgefummelt wird. Wenn der Link tot ist, ist es kein Drama, dann muss man halt die Publikation suchen und notfalls bestellen. Ein automatisch bereitgestellter Internetlink ist nicht nur urheberrechtlich höchst problematisch, sondern leitet auch weg von der Publikation selbst. Nützlicher wäre da, wenn schon, ein Bot, der (auf der Diskussionsseite, niemals im Artikel!) mangelhafte bibliografische Angaben anmeckert. --Mautpreller (Diskussion) 12:43, 21. Jul. 2017 (CEST)

Wenn das urheberrechtlich so problematisch wäre, wäre das längst von einem Gericht festgestellt worden. Zur Erinnerung: nicht nur das Internetarchiv, sondern auch die Wikimediaprojekte unterliegen dem amerikanischen Urherberrecht.--Giftzwerg 88 (Diskussion) 13:16, 22. Jul. 2017 (CEST)
Du irrst Giftzwerg 88. Als Urheber eine Textes muß ich allerdings ggf. dieses Recht international einklagen, was weder spaßig noch billig ist. --Succu (Diskussion) 23:12, 22. Jul. 2017 (CEST)
Nicht nur dem amerikanischen. Die Veröffentlichung findet nicht nur in den USA statt. Es ist auch ein Unterschied, ob historische Texte erfasst werden oder aktuelle, und vor allem ist es ein Unterschied, ob ein Archiv aufgebaut wird oder dieses von einer der meistbesuchten Websites der Welt auf automatisiertem Weg zugänglich gemacht wird.--Mautpreller (Diskussion) 13:20, 22. Jul. 2017 (CEST)
Hättest du recht, wäre Google schon längst dichtgemacht.--Giftzwerg 88 (Diskussion) 13:22, 22. Jul. 2017 (CEST)
Google stellt Temporärkopien her, nicht Permanentkopien.--Mautpreller (Diskussion) 13:32, 22. Jul. 2017 (CEST)

Jetzt mal etwas allgemeiner: als Nichtjurist kann ich sowieso nicht beurteilen, wie es um die rechtliche Situation eines Weblinks aussieht. Mir kommen gleich mehrere Fragen:

  • In Deutschland (und vielen anderen europäischen Ländern) dürften man einen Dienst wie das Internet Archive aus urheberrechtlichen Gründen vermutlich nicht betreiben. In den Vereinigten Staaten scheint das möglich zu sein. Richtig?
  • Wie soll ich entscheiden, ob der Inhalt einer beliebigen im Internet Archive gespeicherten Seite gegen das Urheberrecht verstößt? Welche Rechtssysteme findet überhaupt Anwendung, und warum? Welcher Art von Vergehen mache ich mich schuldig, wenn ich einen Link in der Wikipedia platziere, der gegen irgendsoein Recht verstößt?
  • Weblinks zum Internet Archive sind hier nicht unüblich (Gestumblindi hat oben Zahlen genannt), aber die Urheberrechtsproblematik scheint dabei bisher keine Rolle gespielt zu haben. Warum?
  • In unserem Regelwerk und den Hilfeseiten finden sich nur äußerst wenige Stellen dazu. Ich finde spontan Wikipedia:Weblinks#Einzelrichtlinien, speziell Punkt 7, wobei auf die Archivierungssituation dort nicht adressiert wird, und Hilfe:FAQ Rechtliches#Externe Links zu Seiten mit strafbarem Inhalt – erlaubt oder verboten?
  • Im Internet Archive gespeicherte Seiten kann man als Seitenbetreiber meines Wissens löschen lassen, auf verschiedenen Wegen. Opt out ist zwar im deutschsprachigen Kulturraum keine feine Art, aber ansonsten doch sehr weit verbreitet.

Das ist nach 16.5 Jahren Projektlaufzeit wirklich alles nicht viel, und ich würde mich ernsthaft wundern, wenn diese rechtliche Fragestellung hier ernsthaftes Problempotenzial für den Projektbetreiber oder die Projektmitarbeiter aufwerfen sollte. —MisterSynergy (Diskussion) 18:50, 22. Jul. 2017 (CEST)

Ich hab selbst schon Links auf das Achiv gesetzt, dabei ging es aber um Texte, die gemeinfrei sind. Ganz schön heikel wird das bei Texten, die etwa gegen WP:BIO verstoßen. Beispielsweise: Vor 15 Jahren wurde in Zeitungen mit vollem Namen über eine Verurteilung berichtet, die Strafe ist seit zwölf Jahren abgesessen, die Lemmaperson hat das Recht auf Resozialisierung, wir verlinken per Internet-Archiv den uralten Zeitungsartikel. Aber auch bei Urheberrechtsverstößen: Kurzzeitig stand ein urheberrechtsgeschützter Text unter Verletzung des Urheberrechts im Netz, jemand verlinkt darauf, das Internet-Archiv archiviert ihn, kurz darauf muss der Text aus dem Netz genommen werden. Aber die archivierte Fassung ist noch da und schlummert vor sich hin, bis sie ein Bot wieder leicht zugänglich macht.--Mautpreller (Diskussion) 20:16, 22. Jul. 2017 (CEST)
@Mautpreller: Während das Internet Archive ursprünglich rechtmässig im Web stehende Inhalte unter Berufung auf fair use als Archivversionen vorhält, gehe ich davon aus, dass es Inhalte, die schon „live“ nicht rechtmässig online gestellt wurden bzw. Urheberrechtsverletzungen waren, auf Ersuchen der Rechteinhaber durchaus löscht bzw. per Digital Millennium Copyright Act (DMCA) sogar löschen muss (allerdings muss der Rechteinhaber dazu natürlich erstmal aktiv werden). Dem Internet Archive drohen dabei m.W. keine juristischen Konsequenzen, wenn es Löschaufforderungen per DMCA nachkommt. Was Verstösse gegen WP:BIO angeht: Das ist ja eigentlich kein archivspezifisches Problem. Wenn sich die Frage stellt, ob in einem Personenartikel über eine längst abgesessene Strafe berichtet werden soll/darf, dann ist diese Frage völlig unabhängig davon, ob der alte Zeitungsartikel nun im IA verfügbar ist, gar noch „live“ online (in den USA mit ihren schwach ausgeprägten Persönlichkeitsrechten häufig der Fall) oder „nur“ in einer gedruckten Zeitung, die man ja eben auch als Beleg angeben könnte. Das IA ist diesbezüglich doch nicht „böser“ als Bibliotheken, die physische Zeitungen aufbewahren. Gestumblindi 10:44, 24. Jul. 2017 (CEST)
Ich sehe da schon einen Unterschied, und der liegt in der Reichweite begründet. (Und das ist durchaus ein juristisches Problem.) Mal an einem Beispiel: Über eine Straftat wird in Zeitungen berichtet oder ein urheberrechtsgeschützter Text wird abgedruckt. Natürlich gibt es diese als Druckwerke noch, bei Lesern und auch in Archiven, aber man muss wissen, was man genau sucht, um es zu finden. Manchmal findet man dasselbe sogar noch in einem Buch, das allerdings eine mäßige Auflage hat und auch erstmal gefunden werden muss. Das tangiert Persönlichkeits- und Urheberrechte zwar, aber da die Reichweite so gering ist, lohnt es sich kaum, dagegen vorzugehen, möglicherweise würde diese relativ schwer zugängliche, auf ein beschränktes Publikum und einen beschränkten Zweck bezogene Angabe sogar als rechtmäßig eingestuft. Wenn dieselbe Angabe aber in der Wikipedia zugänglich ist, über einen InternetArchive-Link belegt, hat sich die Reichweite auf einen Schlag ungeheuer ausgedehnt. Jeder (!!), der zB einen Namen oder ein Werk googlet, wird umgehend mit der Nase drauf gestoßen. Das ist eine viel massivere Verletzung der Rechte, als das vorher evtl. der Fall gewesen war. Die Rechte sind immer auch eine Frage des Grades (und der vergangenen Zeit und des Kontexts, in dem solche Texte verbreitet werden). Die nächste Stufe wird erreicht, wenn das ohne menschliche Kontrolle geschieht, wenn also in einem automatisierten Prozess, naturgemäß ohne Rücksicht auf den Kontext, den Zeitverlauf etc., eine alte, relativ schwer findbare und zugängliche Aussage nebst Repräsentation auf einer der meistbenutzten Websites der Welt veröffentlicht wird. Hier ist verantwortliches Handeln überhaupt nicht mehr möglich, man kann nicht mehr abwägen, man kann überhaupt nicht mehr „rechtstreu“ agieren. Das könnte künftig nicht nur riesige juristische Probleme aufwerfen, es ist auch moralisch unvertretbar.--Mautpreller (Diskussion) 11:02, 24. Jul. 2017 (CEST)
@Mautpreller: Ich denke, hier liegt ein kleiner Denkfehler vor: Die enorme Reichweite wird doch bereits durch die Ausführungen in der Wikipedia generiert. Ob wir dafür dann einen Internet-Archive-Link oder einen gedruckten Zeitungsartikel als Beleg verwenden, spielt an diesem Punkt bereits keine grosse Rolle mehr. Den Beleglink klicken eh die wenigsten Leser an. Wenn du in einem Artikel eine bestimmte deines Erachtens persönlichkeitsrechtsverletzende Information aus einem alten Zeitungsartikel nicht drinhaben willst, hilft es dir nicht weiter, einen IA-Link zu verbieten, darum geht es doch gar nicht. Gestumblindi 11:21, 24. Jul. 2017 (CEST)
Du hast insofern recht, als die wichtigste Entscheidung im Wikipedia-Artikel getroffen wird (nämlich die Veröffentlichung der Angabe und des Links). Bloß siehst Du es zu statisch. Ich halte es zunächst für ganz unwahrscheinlich, dass den Beleglink „die wenigsten Leser anklicken“, und zwar ganz besonders in solchen (wichtigen, da Rechte betreffenden) Fragen, um die es hier geht. Zudem ist die Entscheidung im Wikipedia-Artikel selbst ganz wesentlich davon abhängig, dass ein „Beleg“ verfügbar und für jedermann einsehbar ist. Vor allem aber kann ein “broken link” ja schlicht bedeuten, dass die ursprüngliche Veröffentlichung aus bestimmten Gründen nicht mehr online zugänglich ist. Sei es, weil es zu lange her ist, sei es, dass der Text aus rechtlichen Gründen vom Netz genommen wurde, sei es, dass er korrigiert wurde, sei es, weil er urheberrechtlich als problematisch angesehen wird, sei es, dass bspw. die Rechtslage für Zeitungsarchive sich geändert hat, es gibt sehr viele Möglichkeiten. Dies zu „korrigieren“ ist prinzipiell problematisch, weil man das im Einzelnen nicht alles wissen kann. Man kann aber immer noch eine Entscheidung treffen: den Link rauswerfen (und vielleicht auch die zugehörige Angabe), einen anderen, saubereren Beleg suchen, sich trotzdem für den IA-Link entscheiden und das dann auch verantworten. Das ist kompliziert, aber wenigstens im Prinzip noch beherrschbar (ob in der Praxis, mag dahingestellt bleiben). Ein automatisierter Prozess ist hingegen nicht mehr beherrschbar. Deswegen meine ich eben, dass es juristisch wie moralisch unvertretbar ist, solche im Ernstfall extrem bedeutsamen Dinge einem Bot zu überlassen, der prinzipiell schon nicht verantwortlich handeln kann.--Mautpreller (Diskussion) 11:40, 24. Jul. 2017 (CEST)
(BK) : Ich sehe zumindest ein ethisches Problem. Wir stellen uns hier die Aufgabe „freies Wissen“ zu erschaffen, also insbesonderes auch eines, das frei von potentiellen URVs ist. Da passen m.E. derartige Verlinkungen nicht dazu. Wie überall muss man erst klagen um sein Urheberrecht einzufordern. In den Artikeln en:Internet Archive und en:Wayback Machine findet man dazu ein paar Beispiele. --Succu (Diskussion) 20:21, 22. Jul. 2017 (CEST)
Ich teile die urheberrechtlichen Bedenken, aber Mehrheitsaufassung oder „de facto-Haltung“ scheint zu sein, dass die Archive nach US-Recht zulässig sind.
Mautpreller, in den von dir zu Recht genannten Fällen wäre ein für diesen Link spezifisches Opt-Out verfügbar: {{cbignore}} --Martina Disk. 23:33, 22. Jul. 2017 (CEST)
Succu, ich habe die urheberrechtlichen Fragen umseitig aufgenommen. Gibt der Eintrag in die Kontra-Argumente deine Kritik angemessen wider? --Martina Disk. 23:35, 22. Jul. 2017 (CEST)
Meinst du diese Änderung, Martina? --Succu (Diskussion) 23:40, 22. Jul. 2017 (CEST)
@Succu : Ja. --Martina Disk. 23:44, 22. Jul. 2017 (CEST)
So ja, sonst nein. --Succu (Diskussion) 23:54, 22. Jul. 2017 (CEST)
Ok, danke! --Martina Disk. 23:58, 22. Jul. 2017 (CEST)

Ich habe mal explizit ausgedrückt, dass die Weiternutzung der Grund ist, warum trotz Fair-Use-Konformität Bedenken bestehen. Nach wie vor steht umseitig: … sie verstoßen aber gegen das Urheberrecht in Deutschland, Österreich und der Schweiz. Ist das wirklich als absolute Aussage haltbar, oder wäre nicht eine Einschränkung wie „vermutlich“, „wahrscheinlich“ oder „unter Umständen“ korrekt? Hier übrigens noch zwei Links zu der Frage: „… Insofern bleibt das weitere rechtliche Schicksal der Waybackmaschinen unklar …“[3]; „… Verlinken gehöre zu den Kernfunktionen des Internets und sei unmittelbar mit der Meinungs-, Informations- und Gewerbefreiheit verbunden …“[4] --dealerofsalvation 07:42, 10. Aug. 2017 (CEST)

Ob die Verlinkung urheberrechtlich relevant ist, mag unsicher sein; ohne jeden Zweifel ist jedoch die dauerhafte, unbeschränkte Veröffentlichung eines urheberrechtlich geschützten Texts ohne Genehmigung des Urhebers ein Verstoß gegen das Urheberrecht. D.h. das Internet Archive verstößt in diesen Fällen gegen urheberrechtliche Bestimmungen. Das betrifft natürlich nicht alle Texte, sondern nur die urheberrechtlich geschützten. Die Verlinkung solcher Texte ist aber aus verschiedenen Gründen problematisch. Links auf URV mögen im Einzelfall tragbar und unbedenklich sein, als automatisierte Massenanwendung sind sie es nicht.--Mautpreller (Diskussion) 13:12, 10. Aug. 2017 (CEST)
Wir können nichts daran ändern, dass das IA online ist. Insofern ist irrelevant, ob das IA gegen DACH-Recht verstößt. Relevant ist, ob Links auf IA DACH-rechtskonform sind. Auch wenn die Foundation aufgrunddessen nichts zu befürchten hat, wohl aber evtl. unsere Autoren und Nachnutzer. Also, Diskussionsstand ist wohl, dass Links möglicherweise DACH-rechtswidrig sind. Finde ich schon wichtig, das korrekt wiederzugeben. Außerdem bezweifelt niemand, dass das IA und somit auch Links dadauf generell US-rechtskonform sind. Ist es eigentlich sinnvoll, ggf. zu erwähnen, dass Bearbeiter, sofern sie in DACH ansässig sind, sich ggf. durch eine Verlinkung rechtlicher Verfolgung durch aussetzen? --dealerofsalvation 08:58, 15. Aug. 2017 (CEST)
Das ist jetzt ein Argument für den Einsatz eines Bot? Cyberpower678 ist offensichtlich nicht in DACH ansässig und der Server auf dem sein Bot läuft auch nicht. Er würde als rechtskonform handeln, ein ganz normaler User aus DACH hingegen möglicherweise nicht. --Wurgl (Diskussion) 11:03, 15. Aug. 2017 (CEST)

Ob eine Verlinkung rechtswidrig ist, bemisst sich nicht nach dem Standort des Servers oder dem Wohnsitz des Verlinkers. Da die Veröffentlichung für den deutschen Sprachraum bestimmt ist, muss sie die rechtlichen Regelungen dieses Sprachraums beachten. Die Archivdateien sind dann klar rechtswidrig, wenn sie in DACH urheberrechtsgeschützte Werke verbreiten. Sie können auch rechtswidrig sein, wenn sie Texte verbreiten, die im DACH-Raum wegen Regelungen des Persönlichkeitsschutzes nicht verbreitet werden dürfen. Allerdings sind Archivversionen nicht so leicht zu finden, so dass der Verbreitungsgrad relativ gering ist. Links darauf sind vor allem deshalb möglicherweise rechtswidrig, weil sie die sonst nicht leicht aufzufindenden Rechtsverletzungen für ein sehr breites Publikum zugänglich machen.--Mautpreller (Diskussion) 13:53, 15. Aug. 2017 (CEST)

Ob das Internet Archive nach deutschem Urheberrecht zulässig ist, ist für dieses Meinungsbild meiner Meinung nach nicht entscheidend. Wir verlinken bereits tausendfach auf Internetarchive und die Archivlinks werden auch vom GiftBot vorgeschlagen. Eine Entscheidung gegen Archivlinks allgemein (die ich für fatal halte) müsste also allgemein getroffen und umgesetzt werden. Am Ende des Tages ist es an der WMF, zu entscheiden, ob sie Archivlinks auf ihren Servern haben möchte.--Cirdan ± 15:58, 15. Aug. 2017 (CEST)
Entschuldige, aber das finde ich grob verharmlosend. Es geht nicht darum, ob „das InternetArchive zulässig ist“ oder ob die WMF Archivlinks „auf ihren Servern haben möchte“. Es geht darum, dass die Veröffentlichung von Texten gesetzlichen Spielregeln unterliegt, im deutschen Sprachraum vor allem dem Urheberrecht. Wenn das InternetArchive eine Webseite mit einem urheberrechtsgeschützten Text veröffentlicht, ist das ebenso rechtswidrig, wie wenn ein Verlag diesen Text drucken würde, ohne im Besitz der Rechte zu sein. Freilich sind solche Veröffentlichungen eine Frage des Grades der Öffentlichkeit. Der Archivlink ist nicht „sehr“ öffentlich (allerdings wohl öffentlich genug). Wenn wir jedoch im Artikelnamensraum einen Link darauf legen, wird der Text plötzlich sehr öffentlich. Und zwar auch dann, wenn die Seite längst gelöscht ist. Ich finde es durchaus sehr entscheidend für dieses Meinungsbild, ob wir eine solche Praxis verantworten können und wollen, insbesondere ohne menschliche Kontrolle.--Mautpreller (Diskussion) 16:12, 15. Aug. 2017 (CEST)
Ab wann wird ein Text eigentlich „sehr“ öffentlich? Ich habe zahlreiche Artikel im Blickfeld mit Abrufzahlen ≪1/Tag; davon haben wir sogar ziemlich viele, und gerade dort fehlt es oft an Wartung. Für die Sichtbarkeit eines Archivlinks spielen solche Artikel wohl keine Rolle. —MisterSynergy (Diskussion) 17:18, 15. Aug. 2017 (CEST)
Ich glaube nicht, dass es dafür eine feste Grenze gibt. Es kann sein, dass das in bestimmten Gebieten kaum eine Rolle spielt. Bei Biografien z.B. ist allerdings von einer sehr hohen Sichtbarkeit auszugehen, weil jeder, der etwas über eine Person wissen will, in Google nachguckt und zu Wikipedia geleitet wird.--Mautpreller (Diskussion) 19:28, 15. Aug. 2017 (CEST)

Da die Veröffentlichung für den deutschen Sprachraum bestimmt ist, muss sie die rechtlichen Regelungen dieses Sprachraums beachten – nicht dass ich das schlecht finde, aber mich würde interessieren, wo das festgelegt ist oder wer das entschieden hat. --dealerofsalvation 18:16, 15. Aug. 2017 (CEST)

@dealerofsalvation: Siehe etwa Wikipedia:WikiProjekt Urheberrecht/Almanach, Ziffer 0. Genaueres können sicherlich unsere Urheberrechtler mitteilen. Ein ziemlich zufällig ausgewählter Beleg: http://blog-it-recht.de/2010/04/06/bgh-zustandigkeit-deutscher-gerichte-bei-klage-gegen-internetveroffentlichung-einer-international-tatigen-zeitung/. Natürlich heißt „klagen können“ nicht „recht kriegen“.--Mautpreller (Diskussion) 19:26, 15. Aug. 2017 (CEST)

Um das nochmals klazustellen: Das ist kein grundsätzliches Plädoyer gegen Archivlinks. Der weitaus größte Teil von ihnen wird zumindest unschädlich, manchmal auch nützlich sein. Ich bin etwas skeptisch bezüglich des Nutzens in den Themengebieten, in denen ich arbeite (dort kenne ich kaum Beispiele), aber das heißt nicht, dass sie anderswo nicht sehr nützlich sein könnten.

Bloß: Es gibt (vermutlich wenige) Fälle, in denen wirklich großer Schaden eintreten kann. Ich plädiere deshalb dafür, Archivlinks immer nur nach Abwägung zu setzen. Natürlich kann auch die Abwägung schiefgehen, aber so besteht wenigstens die Chance, diesen Schaden abzuwenden. Automatisches Einsetzen von Archivlinks im Artikelnamensraum erscheint mir angesichts dessen unverantwortlich.--Mautpreller (Diskussion) 19:58, 15. Aug. 2017 (CEST)

Ich finde die Argumentation nicht stichhaltig. Zunächst wirdvermutet, dass all diese über 20 Archivdienste gegen DACH-Recht verstoßen. Ein Indiz dafür- etwa ein Urteil aus diesem Rechtsraum – wird nicht erbracht. Aus dieser Vermutung wird abgeleitet, dass auch die Verlinkung auf die Archive gegen DACH-Recht verstoße (auch hier beleglos). Die Schlussfolgerung ist, dass irgendwer (wrr?) nun ein Rechtsrisiko eingehe, indem auf Archive verlinkt werde. Wikipedia-Tradition ist genau dss Gegenteil: Wenn es Unsicherheit bezgl. der Rechtslage gubt, wir aber eigentlich sicher sind, dass wir korrekt handeln, lassen wir das einen Bot machen (Beispiel Flickr-Importe und Lizenz bestätigung). Die Argumentation müsstealso zum Pro. --Martina Disk. 20:23, 15. Aug. 2017 (CEST)

Martina, nein, da stimme ich nicht zu. Wir wollen uns rechtstreu verhalten (hoffe ich doch wenigstens). Zum Beispiel einen Zeitungsartikel, der mal für zwei Wochen legal online war, zu kopieren und dauerhaft und prominent über Jahre zugänglich zu machen, ist nicht rechtstreu. Es ist eine klare Urheberrechtsverletzung. In der Wikipedia selbst würde das niemals geduldet. Es ist nicht unsere Sache zu sagen, das sollen die Archive nicht machen. Es ist aber sehr wohl unsere Sache zu entscheiden und zu verantworten, diese Urheberrechtsverletzung dauerhaft und prominent zugänglich zu machen. Ich kann mir viele Fälle vorstellen, wo das sowohl juristisch als auch moralisch nicht sonderlich heikel ist. Es gibt aber definitiv Fälle, in denen wir damit in Teufels Küche kommen können. Nur zwei Beispiele: Es gibt Rechteverwalter (Kästner, Adorno etc.), die sehr rigide gegen alle urheberrechtlich unsauberen Publikationen im Netz vorgehen. Das Zeug stand mal kurz im Netz und musste dann (übrigens zu Recht) wieder runtergenommen werden. Wollen wir wirklich per automatisierten Prozess solche URV dauerhaft bewahren? Damit würde sich die Wikipedia-Community als ganze (!) juristisch schuldig machen. Und: Kurz nach einer Verurteilung gibt es viele sehr detaillierte Berichte mit voller Namensnennung in der Presse. Zu diesem Zeitpunkt legal. Zehn oder fünfzehn Jahre später sind diese Berichte nicht mehr legal, sondern verletzen die Persönlichkeitsrechte der Betroffenen (Recht auf Resozialisierung). Wollen wir wirklich per automatisierten Prozess solche Persönlichkeitsrechtsverletzungen schaffen? Nein, solche Entscheidungen müssen von Menschen getroffen und verantwortet werden. Die Entscheidung kann unterschiedlich ausfallen. Einem Bot aber kann man sie nicht anvertrauen.--Mautpreller (Diskussion) 21:37, 15. Aug. 2017 (CEST)
Im Übrigen richtet sich die Argumentation keineswegs nur auf „Rechtsrisiken“. Die Frage ist doch auch, was wir wollen. Wollen wir Urheber- und Persönlichkeitsrechtsverletzungen per Bot Vorschub leisten oder wollen wir das nicht tun? Mein Standpunkt ist hier klar: Nein, wir handeln eben weder moralisch noch juristisch korrekt, wenn wir das tun.--Mautpreller (Diskussion) 21:50, 15. Aug. 2017 (CEST)
Was die Persönlichkeitsrechte angeht: Wenn da eine Verletzung besteht, dann ja schon im Wikipedia-Artikel, dessen Inhalte durch den (Archiv-)Link „nur“ belegt werden. Wenn man zum Schluss kommt, dass im Einzelfall aus Resozialisierungsgründen bestimmte Ereignisse in der Vergangenheit einer Person nicht mehr in der Wikipedia Erwähnung finden sollen, ist also schon am Artikeltext anzusetzen – und dann fällt eh auch der Beleg komplett weg, mit oder ohne Archivlink. Aber im Prinzip drehen wir uns im Kreis, das hatten wir ja schon am 24. Juli. Gestumblindi 22:36, 15. Aug. 2017 (CEST)
In der Tat. Es würde im Wikipedia-Artikel aber ziemlich sicher nicht stehen, wenn der Link nicht da wäre. Im Übrigen kann der Text des Wikipedia-Artikels in Ordnung sein, ohne dass eine erneute Veröffentlichung des archivierten Texts in Ordnung wäre. Ich verstehe offen gesagt diesen in meinen Augen fahrlässigen Umgang nicht. Man nimmt so sehenden Auges in Kauf, dass in der längst nicht mehr vernünftig wartbaren Artikelmasse der de-wp juristisch und moralisch hochproblematische Konservierungen von Links automatisch vorgenommen werden. Natürlich kann man das manuell korrigieren, aber wer soll das schaffen? Die werden so stehen bleiben, bis es irgendwann schrecklich knallt.--Mautpreller (Diskussion) 22:53, 15. Aug. 2017 (CEST)
@Mautpreller: „Es würde im Wikipedia-Artikel aber ziemlich sicher nicht stehen, wenn der Link nicht da wäre“: Nicht unbedingt, man kann auch eine gedruckte Zeitung oder Zeitschrift als Beleg angeben. Das ist dann ein Beleg „für die Ewigkeit“, mit dem Nachteil, dass er relativ aufwendig zu überprüfen ist. - „Im Übrigen kann der Text des Wikipedia-Artikels in Ordnung sein, ohne dass eine erneute Veröffentlichung des archivierten Texts in Ordnung wäre“: Das wird jetzt relativ theoretisch. Kennst du einen realen Fall, und sei es nur ein einziger, der in diese Richtung geht? Übrigens habe ich deinen Wunsch „Mich würden mal Beispiele interessieren, bei denen ein Archivlink nützlich und angebracht ist“ an anderer Stelle dieser Diskussionsseite gesehen und will noch darauf eingehen, hatte an eine kleine Tabelle mit Beispielen verschiedener Arten nützlicher Archivlinks gedacht. Gestumblindi 23:24, 15. Aug. 2017 (CEST)
Ich kenn solche Fälle, will sie aber aus gutem Grund nicht hier breittreten. Deshalb allgemeiner: Ein Beleg aus einer gedruckten Zeitung kann natürlich problematisch für das Persönlichkeitsrecht sein. Es kommt allerdings darauf an, wofür er benutzt wird, er kann auch für unproblematische Dinge verwendet werden (d.h. das Problematische wird einfach nicht übernommen). Der Unterschied ist: Wenn wir den gedruckten Text als Beleg nutzen, veröffentlichen wir ihn nicht, während ein Link einer Veröffentlichung sehr nahe kommt, dann machen wir seinen Inhalt vollständig für eine große Öffentlichkeit sehr leicht zugänglich. Genau darum sind doch solche Links so beliebt. In die Bibliothek zu gehen ist viel aufwändiger, als ein Onlinedokument zu verlinken. Manchmal ist es sehr gut, dass man diesen Aufwand verlangt (manchmal auch nicht). Daher soll es eben nicht automatisiert geschehen.--Mautpreller (Diskussion) 10:13, 16. Aug. 2017 (CEST)
PS: Eine Tabelle mit Beispielen nützlicher Archivlinks fände ich sehr gut.--Mautpreller (Diskussion) 10:19, 16. Aug. 2017 (CEST)
Dein Bedenken bezgl. WP:BIO (Resozialisierung wurde doch längst beantwortet: Für den (toten) Link würde ein Opt-out gesetzt. Problem erledigt. Wenn sich die Rechtsprechugn darauf einigt, dass Archivlinks aus urheberrechtlichen Gründen grundsätzlich nicht zulässig sind, dann fliegen alle raus – egal, ob ein Bot oder Mensch sie gesetzt hat. Ich finde, deine Argumentation dreht sich im Kreis. Ich verstehe deine Bedenken durchaus, teilweise teile ich sie auch (wir sollten m.E: keien Archive verwenden, die den Urhebern/Seitenbetreibern kein Opt-out erlauben (wenigstens eine nachträgliche Entfernung). Aber all dies hängt nicht an der Frage, ob wir einem Bot erlauben diese Links zu setzen. --Martina Disk. 02:05, 16. Aug. 2017 (CEST)
Es hängt nicht allein an der Frage, ob wir dem Bot erlauben, diese Links zu setzen, das stimmt. Bloß wenn man schon beklagt, dass die Anpassung toter Links so aufwändig sei, dass man das gar nicht „menschlich“ schaffen könne – wie kann man dann annehmen, dass man die unbekannten Fälle prüfen kann, die evtl. urheberrechtlich oder persönlichkeitsrechtlich problematisch sind? Ja, man kann Opt-out setzen oder schlicht den Link löschen, wenn man diese Fälle kennt. Das Problem ist doch, dass ein automatischer Prozess unterschiedslos alle Fälle erfasst, eben gerade ohne Prüfung.--Mautpreller (Diskussion) 10:13, 16. Aug. 2017 (CEST)
[5]. --Mautpreller (Diskussion) 22:09, 15. Aug. 2017 (CEST)
Hi! Interessante Diskussion. Die Frage, ob die Wayback Machine des Internet Archive nach deutschem Urheberrecht legal ist, finde ich sehr spannend. Dabei muss man zunächst beachten, dass das Internet Archive bei weitem nicht die einzige Institution ist, die Websites archiviert – auch Nationalbibliotheken mehrerer europäischer Staaten speichern systematisch und ohne ausdrückliche Einwilligung der betroffenen Betreiber und Rechteinhaber. Mir ist kein Fall bekannt, in dem gegen eine solche Speicherung geklagt wurde. Hoeren hat zumindest Bedenken (MMR 1/2006, V), Bahr geht von der Unzulässigkeit aus (JurPC Web-Dok. 29/2002). Man müsste mal schauen, ob es dazu jüngere Literatur gibt. All das sagt natürlich nichts darüber aus, ob wir verlinken dürfen oder nicht (grundsätzlich dürfen wir). Als letzte Verteidigungslinie könnte ich mir auch hier vorstellen, von einer so genannten schlichten Einwilligung auszugehen, mit welcher der Bundesgerichtshof auch Bildersuchmaschinen rechtfertigt. Hilft das weiter? Gruß, --Gnom (Diskussion) 00:09, 17. Aug. 2017 (CEST)
Ein bisschen. Der Kern der von Dir zitierten Beiträge scheint doch darin zu bestehen, dass eine Speicherung für einen beschränkten Zweck und Kreis dauerhaft bzw. für einen bestimmten Zeitraum unbeschränkt gerechtfertigt sein kann, eine dauerhafte unbeschränkte Veröffentlichung aber tendenziell eher nicht. Verstehe ich das richtig? Wenn es jüngere Literatur dazu gibt, würde mich das sehr interessieren. Das gilt auch für die automatisierte Verlinkung, die die Zugänglichkeit ja noch erhöht.--Mautpreller (Diskussion) 11:29, 17. Aug. 2017 (CEST)
Im Gegensatz zum Internet Archive handhaben die Nationalbibliotheken den Zugang zu den gespeicherten Websites tatsächlich sehr restriktiv. Beispielsweise ist das „Webarchiv Schweiz“ der Schweizerischen Nationalbibliothek ausser in der NB selbst nur an einzelnen, besonders abgesicherten Arbeitsplätzen in den Kantonsbibliotheken einsehbar – PCs, die so konfiguriert sind, dass man sich die Sites dort nur anschauen, aber weder ausdrucken noch Inhalte auf einen Datenträger speichern kann... das ist natürlich schon ein ganz anderer Ansatz als das offen zugängliche IA. Gestumblindi 12:50, 17. Aug. 2017 (CEST)
Man kann andere urheberrechtsgeschützte Inhalte ja auch über einen Bibliotheksausweis bekommen (und sogar speichern und ausdrucken), im Rahmen von Lizenzen, etwa bei der Bayerischen Staatsbibliothek. Aber auch da muss man einen Ausweis beantragen, die Texte werden nicht einfach veröffentlicht.--Mautpreller (Diskussion) 12:58, 17. Aug. 2017 (CEST)
Wobei der Grund hierfür wohl eher nicht urheberrechtlicher Art ist, sondern die technischen und finanziellen Ressourcen der Bibliothek schont/fördert. Mit dem Urheberrecht ist es wie mit der Schwangerschaft: ein bisschen gibt es nicht. Entweder etwas ist unzulässig (da hilft auch nicht, den Zugriff ein bisschen zu kontrollieren) oder zulässig. Also dürfen wir entweder massenhaft drauf verlinken oder gar nicht. Du vermischt dies andauernd mit qualitativen Argumenten – deshalb dreht sich die Diskussion zu einem Gutteil im Kreis. --Martina Disk. 20:52, 17. Aug. 2017 (CEST)
Nein, da irrst Du. Der entscheidende Begriff beim Urheberrecht ist die Veröffentlichung. Und Du weißt doch auch ganz gut, dass es verschiedene Lizenzen gibt. Für einmaligen Druck oder dauerhafte Vorhaltung, für wssenschaftliche oder kommerzielle Verwendung usw. Es ist eben nicht so, dass jegliche Veröffentlichung „zulässig oder nicht zulässig“ ist, sondern es kommt auf die Art und den Zweck und die Reichweite der Veröffentlichung an.--Mautpreller (Diskussion) 21:27, 17. Aug. 2017 (CEST)
Naja, in Bezug auf die Verlinkung der Wayback Machine in der Wikipedia hat Martina Recht. Entweder wir verbieten es ganz, oder wir erlauben es überall. Gruß, --Gnom (Diskussion) 22:40, 17. Aug. 2017 (CEST)
Das verstehe ich nicht. Wenn ein klar urheberrechtsgeschützter Text im Archiv zugänglich ist, sollten wir ihn nicht mit unseren Mitteln zugänglich machen. Wenn es sich aber nicht um einen urheberrechtlich geschützten Text handelt (davon gibts auch viele im Archiv), dann ist das unproblematisch. Da kann und muss man doch differenzieren.--Mautpreller (Diskussion) 10:03, 18. Aug. 2017 (CEST)
Es kann sein, dass man hier in der Tat differenzieren muss. Aber grundsätzlich ist es eben urheberrechtlich unbeachtlich, ob wir die Wayback Machine hierzuwiki eben nur vereinzelt oder massenhaft verlinken. Gruß, --Gnom (Diskussion) 11:05, 18. Aug. 2017 (CEST)
Du meinst, dass eine automatisierte Verlinkung urheberrechtlich unbedenklich ist? --Mautpreller (Diskussion) 11:39, 18. Aug. 2017 (CEST)
Man könnte das ja auch ganz schlaumeierisch sehen und sagen: bei einer automatisierten Verlinkung ist es schwerer, einen einzelnen Wikipedianer (der den Link zum Archiv manuell gesetzt hätte) haftbar zu machen – „schuld“ wäre dann höchstens der Botbetreiber (der im Falle von IABot wohl nicht im deutschsprachigen Raum sitzt) oder die WMF, für die das in den USA sowieso legales fair use ist. Gestumblindi 21:26, 18. Aug. 2017 (CEST)
Ja, genau das meine ich. Die Wikipedianer sollten sich zum Recht des Urhebers bekennen, über die Veröffentlichung seines Werks zu bestimmen. Sie sollten es nicht zu umgehen versuchen.--Mautpreller (Diskussion) 22:29, 18. Aug. 2017 (CEST)
Hm, ich habe mich offenbar immer noch nicht verständlich ausgedrückt. Ich meinte Folgendes: Aktuell verlinken wir die Wayback Machine ja bereits allerorten, und zwar durch „von Hand“ eingefügte Links. Urheberrechtlich macht die Umstellung auf eine wie auch immer geartete „automatische“ Verlinkung keinen Unterschied. (Man kann sich dann natürlich streiten, wer im Fall einer angenommenen Urheberrechtsverletzung der Täter ist, darauf kommt es mir aber nicht an.) Ich möchte nur sagen, dass urheberrechtlich grundsätzlich kein Unterschied zwischen einer vereinzelten Verlinkung von Hand und einer massenhaften Verlinkung durch einen Bot liegt. Wir hätten dann halt nur, wenn man die Wayback Machine als urheberrechtswidrig ansieht, mehr Links auf Rechtsverstöße als vorher. (Wobei „Links auf Rechtsverstöße“ auch noch etwas anderes ist als „Rechtsverstöße“.) Gruß, --Gnom (Diskussion) 01:05, 19. Aug. 2017 (CEST)
Ich möchte fürs Protokoll nochmal festhalten, dass die Archivierung ist in den USA kein Rechtsverstoß, sondern als Fair Use legitimiert ist. --Martina Disk. 15:50, 19. Aug. 2017 (CEST)
In den USA zweifellos. Die Archivdateien sind aber auch für den deutschen Sprachraum bestimmt und werden dort abgerufen.--Mautpreller (Diskussion) 15:57, 19. Aug. 2017 (CEST)
Wir drehen uns im Kreis. Du sagst die Archivierung mag zwar in den USA zulässig sein, nach DACH-Recht ist sie aber unzulässig; deshalb ist die Verlinkung im DACH-Rechtsraum unzulässig. Ich sage: Die Verlinkung auf eine zulässige Archivierung ist zulässig. Gnom sagt: Selbst wenn die Archivierung in den USA nach DACH-Recht nicht zulässig wäre, ist es fraglich, ob dadurch auch die Verlinkung unzulässig wäre. Und außerdem sage ich (und ich verstehe Gnom ebenfalls so): Wenn irgendwann die DACH-Rechtsprechung eine Verlinkung im DACH-Rechtsraum tatsächlich für nicht zulässig erklären sollte, dann entfernen wir alle diese Links (außer solche auf ungeschützte Inhalte). Wikipediaweit. Irgendwann. Vielleicht. Qualität des verlinkten Inhalts hin oder her. Wahrscheinlich würden wir das einen Bot machen lassen.
Für das vorliegende Meinungsbild hat diese Frage praktisch keine Bedeutung. --Martina Disk. 17:01, 19. Aug. 2017 (CEST)
Das seh ich anders. Das Verlinken auf Urheberrechtsverletzungen wird in der Wikipedia aus gutem Grund nicht gern gesehen. Und viele (natürlich nicht alle) Archivdateien sind Urheberrechtsverletzungen: Veröffentlichungen urheberrechtlich geschützter Werke ohne Genehmigung des Urhebers, die mindestens auch, in vielen Fällen sogar speziell für den deutschsprachigen Raum bestimmt sind.--Mautpreller (Diskussion) 22:57, 20. Aug. 2017 (CEST)
Sehe ich auch anders. Unternimmt der Bot irgendwelchen Schritte um valide URLs aufzuspüren und diese einzusetzen. Oder zementiert er einfach Links auf das Archiv seines Arbeitgebers? --Succu (Diskussion) 23:19, 20. Aug. 2017 (CEST)

Nummerchaos

Das Nummernchaos ist aktuell mit voller Absicht. Damit die Diskussion nicht all zu fest gestört wird. Ich möchte am Schluss die verscheiden Abstimmoptionen so ordnen, dass sie von der Einschränkungennher einigermassen logisch geordnet sind. Mir schwebt hier vor, dass je mehr Freiheiten der Bot bekommt, desto weiter unten ist dierer Vorschlag. Damit es den Abstimmen eben leichter fällt abzustimmen, dass wenn er zur Endscheidung kommt „Diese Vorschlag geht es mir zu weit“, die darunter eben auch ablehnen kann. Oder eben, dass wenn er sein Wunschversion gefunden hat, denen darüber auch zustimmen kann. Ich werde also 2a und 2b sicher untereinander austauschen zuerst In dann Out.--Bobo11 (Diskussion) 10:36, 21. Jul. 2017 (CEST)

Bobo11: Meiner Meinung nach haben wir noch gar nicht genug technische Informationen, um konkrete Vorschläge für die Abstimmoptionen zu formulieren. Und dann fände ich es außerdem sinnvoller, wenn sich die Initatoren und Unterstützer des Meinungsbildes erst einmal hier auf dieser Seite auf Abstimmoptionen einigen. Ich verstehe deinen umsetigen Vorstoß, denn es ist oft einfach anhand konkreter Textvorschläge zu diskuteiren. Aber ich finde das noch etwas verfrüht. --Martina Disk. 23:00, 22. Jul. 2017 (CEST)

Monokultur

Was mich daran besonders bestürzt, ist die Monokultur, die entsteht. Man bewegt sich im Ernstfall nur noch in Wikipedia und Internet-Archiv, sozusagen in einer Parallelwelt. Dabei sind doch gerade die unabhängigen Veröffentlichungen das entscheidende Korrektiv. Ich finde es nicht tragisch, wenn eine Angabe mal unbelegt bleibt; viel schlimmer ist es, wenn die Leser nur noch in dieser Surrogatwelt navigieren. Die vereinnahmende Tendenz, die bereits die Wikipedia hat und die sich mit Wikidata ausgedehnt hat, würde damit noch einen weiteren Anbieter erfassen. Da sind mir unvollkommene Artikel mit toten Links noch zehnmal lieber als diese Monokultur, die peu à peu die Zuverlässigkeit der Angaben untergräbt.--Mautpreller (Diskussion) 12:57, 21. Jul. 2017 (CEST)

Nur dass diese Parallelwelt die wirkliche Welt abbildet. Ich wüsste nicht wieso die Existenz von IA irgendwelche unabhängigen Veröffentlichungen in Frage stellt. In der Tat finde ich unbelegte Angaben schlimmer als einen Beleg, der auf IA zeigt, vor allem dann, wenn ein Artikel dutzende von Belegen angibt auf Webseiten, die nicht mehr exisitieren. Das suggeriert einen Beleg, der nicht mehr existiert und du kannst es nicht sehen, bis du mal auf einen der Links klickst. Tote und nicht mehr überprüfbare Links untergraben also nach deiner Ansicht nach nicht die Zuverlässigkeit von Angaben. Sollten wir also einen Bot laufen lassen, der alle Links vom Internetarchiv auf Error 401 umleitet um die Zuverlässigkeit des Artikels zu erhöhen?--Giftzwerg 88 (Diskussion) 13:29, 22. Jul. 2017 (CEST)
Typisch ist zum Beispiel: Eine Wikipedia macht eine Angabe. Die wird von Wikidata übernommen und in alle möglichen Netzwerke eingespeist. Sie wird auch gleich per Übersetzungstool in alle möglichen anderen Wikipedien eingebaut, meist ohne echte Prüfung. Beleg war irgendeine Website, die wird nun per Internet Archive dauerhaft angezeigt, wenn sie “broken” ist. - Aber: Die vorhandene Literatur sowie die zahlreichen anderen, unabhängigen Datensammlungen sind sich keineswegs einig. Vielleicht ist die Angabe sogar falsch. Möglicherweise ist entweder eine richtige Angabe verfügbar oder man muss festhalten, dass die Angabe unsicher ist. Möglicherweise ist sie auch längst korrigiert, evtl. sogar innerhalb derselben Publikation. - Die leicht erreichbare, automatisch erzeugte Angabe aus dem Wikipedia-Wikidata-InternetArchive-Netzwerk wird nunmehr von allen möglichen neuen Publikationen wiederum übernommen, es ergibt sich ein Selbstbestätigungszirkel. Eine (gar professionelle quellenkritische) Prüfung außerhalb dieses Netzwerks findet nicht mehr statt. Eine neue, in sich schlüssige Realität wird an die Stelle der alten gesetzt, die Unklarheiten, Widersprüche und “loose ends” noch nicht zugedeckt hatte. Willst Du Beispiele? Kannst Du haben. - Wir sollten keinen Bot laufen lassen, sondern vielmehr Mut zur Lücke haben. Die präziseste Angabe ist oft: weiß man nicht genau. Broken links machen das gar nicht übel deutlich. Ich denke, dass es nur in seltenen Einzelfällen sinnvoll ist, diese Momentaufnahmen zu verewigen.--Mautpreller (Diskussion) 13:49, 22. Jul. 2017 (CEST)

Check

Werfen wir doch mal einen Blick auf Ellon Castle. Da sind, durch Versionsimport aus en, Edits des InternetArchiveBot enthalten. Angeblich wurden vier Quellen „gerettet“. Drei davon sind aktuell erreichbar und mussten folglich überhaupt nicht gerettet werden. --Mautpreller (Diskussion) 15:32, 21. Jul. 2017 (CEST)

Die vierte Quelle würdest du also unbesehen opfern. Und woher weißt du, ob die jetztige Internetquelle das selbe zeigt wie zur Zeit als der Artikel verfasst wurde? Das ist wie wenn man mit dem Boot auf den See fährt, den Schatz versenkt und eine Kerbe am Boot macht um zu wissen, an welcher Stelle die Kiste zu suchen ist. Das IA ermöglicht eine Navigation nach Webseite und nach Zeit, ein Service der nicht von jeder Webseite angeboten wird. Tausende von seriösen Newsseiten werden verlinkt, der Link bleibt gleich, aber fast jeden Tag ändert sich die Seite und es wird wirklich schwer herauszufinden, was vor einem Jahr an einem bestimmten Datum dort stand. Eine Tote Quelle ist so viel wert wie keine Quelle, schlimmer noch, sie gaukelt einen Beleg vor, der nicht existiert und führt somit den Leser hinters Licht.--Giftzwerg 88 (Diskussion) 13:44, 22. Jul. 2017 (CEST)
Die vierte Quelle würde ich korrekt formatieren, sie ist nämlich im Prinzip erreichbar. Es ging mir hier aber vor allem darum, die Behauptungen über die Zuverlässigkeit des InternetArchiveBot (insbesondere Vermeidung von false positives) in Zweifel zu ziehen.--Mautpreller (Diskussion) 13:51, 22. Jul. 2017 (CEST)
Übrigens auch in diesem Fall: Die Einträge auf Historic Scotland sind teilweise aufgesplittet und umgebaut worden. Wieviel Sinn hat es, eine Permanentkopie eines vorübergehenden Zustands der Datenbank zu verewigen und zudem zu begünstigen gegenüber dem aktuellen Stand? Das müsste ein Mensch entscheiden. Ganz sicher kein Bot.--Mautpreller (Diskussion) 14:07, 22. Jul. 2017 (CEST)
Du must dazu überhaupt in der Lage sein den Unterschied zwischen aktuellem und vergangenem Stand zu erkennen, denn sonst hast du keine Möglichkeit das zu entscheiden. Dein Argument ist, dass es besser ist, wenn die Bearbeiter nichts über die Vergangheit der Webseite erfahren und nicht wissen, was der anfängliche Bearbeiter dort gesehen hat.--Giftzwerg 88 (Diskussion) 16:28, 22. Jul. 2017 (CEST)
Mit dem selben Argument sollten wir ältere Auflagen eines Werks aus den Bibliotheken entfernen und nur die neueste beibehalten. Alsdann erschaffen wir eine Lücke in der Überprfübarkeit von Literaturangaben auf die älteren Auflagen. Da aber es dann nicht mehr überprüfbar ist, sollten wir den Mut zur Lücke haben und auch die alte Literaturangabe entfernen. Lieber unbequellte Aussagen, als eine alte Version des Werks benutzen.--Giftzwerg 88 (Diskussion) 16:35, 22. Jul. 2017 (CEST)
Natürlich bin ich da ganz anderer Ansicht. Die alten Auflagen eines Buchs sind als „fertige“ Veröffentlichungen unverzichtbar, die alten Zugänge zu einer Datenbank hingegen stellen lediglich einen zufälligen Stand dar, der zu keinem Zeitpunkt als „Auflage“ intendiert war. Der Punkt ist auch nicht, dass es nicht interessant sein könnte, einen alten Stand zu kennen; der Punkt ist, dass es sich um einen zufälligen Ausschnitt handelt, der zudem im Artikel privilegiert wird, allein deshalb, weil ein Wikipedia-Autor zu einem bestimmten Zeitpunkt einen Abruf getätigt hat. Der steht dann im Artikel (!), nicht der heutige Stand und oft genug nicht mal der Verweis auf die Quelle. Wir sind dann verantwortlich dafür, einer breiten Öffentlichkeit eine Version zur Verfügung zu stellen, die womöglich schnellstens wieder vom Netz genommen worden ist. Und das automatisiert, d.h. in quantitativen Dimensionen, die wir schon rein arbeitsmäßig nicht prüfen und damit auch nicht verantworten können. Es ist natürlich auch nicht so gedacht: Die Vorstellung ist, dass man sich die Prüfung sparen kann, weil der Bot den Beleg ja konserviert. Wie vernünftig ist es dagegen, unvollkommen belegte Artikel einfach stehen zu lassen und damit gerade die Unvollkommenheit der Überlieferungssituation einzuräumen und herauszustellen – außer man hat tatsächlich eine bessere Quelle gefunden (was ja auch nur in einem kleinen Teil des Artikelbestands zu bewältigen ist).--Mautpreller (Diskussion) 17:00, 22. Jul. 2017 (CEST)
Mal ganz einfach ausgedrückt: Ich meine, dass sich in solchen Vorhaben ein grenzenloser technologischer Optimismus abbildet. Dieser ist meiner Ansicht nicht nur ganz ungerechtfertigt, er hat auch erhebliche destruktive Folgen. Er wirkt sich zerstörerisch auf die in einem langen Prozess entwickelten Techniken, Medien und Fähigkeiten der Repräsentation von Inhalten aus, ohne dafür neue zu entwickeln. Das Projekt Wikipedia war doch von Beginn an auch ein „Ermächtigungsprojekt“, das die menschliche Souveränität zum Umgang mit Information erweitert hat (Demokratisierung, wenigstens der Möglichkeit nach Aufhebung der Trennung zwischen Leser und Schreiber, Unabhängigkeit von Gatekeepermechanismen usw.). Dazu ist technische Unterstützung gewiss wichtig, bloß ist dies das Gegenteil: eine erneute Ent-Mächtigung des menschlichen Akteurs zugunsten automatischer Abläufe.--Mautpreller (Diskussion) 17:34, 22. Jul. 2017 (CEST)
Ok ich kann deinen genzenlosen technologischen Pessimismus nicht teilen. Computer und das Internet wurde wohl nicht für dich erfunden. Du solltest besser für alles was du wissen willst direkt in die Bibliothek fahren und besser nicht das Internet benutzen, das dich dermaßen entmächtigt. Wenn du irgendwas wichtiges zu sagen hast, schreibe besser mit Tinte auf Papier als auf eine Webseite, denn da kann man es auch in Jahren noch nachlesen. Sollten wir das Internetarchiv nicht gleich noch auf die Blacklist setzen, wenn es doch so zerstörerisch ist? Immerhin wird ja dort ein veralteter Stand des Wissens bewahrt. Ich frage mich warum eigentlich Wikiartikel noch die Versionsgeschichte haben, doch nicht etwa um herauszufinden was der veraltete Stand des Artikels war? Wir sollten also jeden Artikel in seinem jetzigen Zustand als unumstößliches Faktum akzeptieren und zuverlässig verhindern, dass irgendjemand Zugriff auf alte Quellen haben kann, die bei der Verfassung des Artikels noch verfügbar waren und es begrüßen, wenn die alte Webseite nicht mehr existiert und keiner mehr weiß was dort zu sehen war. Lieber tausendmal einen Leser in die Wüste schicken. Ich weiß auch nicht, welchen inneren Wert es hat unvollkommene Artikel in ihrer Unvollkommenheit herauszustellen und in dieser Form zu akzeptieren anstatt eine Version zu zeigen, die gut und richtig belegt war und zur Zeit ihrer Entstehung in diesem Sinne vollkommen. Es ist wie wenn du bei der alten Auflage eines Werks die Fußnoten rausreißen würdest und nur noch die Zahlen im Text verbleiben. Ich verstehe nicht, was dieser Bot angeblich zerstört, was nicht alleine schon dadurch zerstört ist, das die Webseite in ihrer ursprünglichen Form nicht mehr sichtbar ist.--Giftzwerg 88 (Diskussion) 18:09, 22. Jul. 2017 (CEST)
Willst dus nicht verstehen? Die Versionsgeschichte bietet mir doch nicht privilegiert eine alte Version an, sondern alle. Das geht natürlich nur unter besonderen Umständen, eben in einem Wiki. Der Bot bietet genau eine zufällige Version, ausschließlich durch einen ebenso zufälligen Zugriff ausgewählt und in keiner Weise qualifiziert. Er leitet überhaupt nicht mehr hin zum Fundort (den es möglicherweise auch gar nicht mehr gibt), geschweige denn zur eigentlichen Quelle der Information. Er leitet nur noch ins Internet Archive, daas wiederum die Seite aufgenommen hat, weil in einer Wikipedia ein Linkk auf diese gesetzt wurde. Siehst Du den Zirkel wirklich nicht?--Mautpreller (Diskussion) 18:24, 22. Jul. 2017 (CEST)
Das ist nicht korrekt. Wenn der Archivlink wie gewohnt mit den üblichen Vorlagen gesetzt wird, sind sowohl der (möglicherweise tote) Originallink, der Archivlink, das Archivierungsdatum und überhaupt die Archiveigenschaft des Links deutlich für jeden erkennbar. Da wird nichts verschleiert oder unzugänglich gemacht. —MisterSynergy (Diskussion) 18:29, 22. Jul. 2017 (CEST)
Dann sehen wir uns doch mal Ellon Castle an. Einzelnachweis 9:
Edward Charles Shaw: The Kennedys — An Unusual Western Family. Manitoba Historical Society, archiviert vom Original am 20. September 2015; abgerufen am 6. Juli 2017.
Da steht ein Autor und ein Titel, der Titel ist verlinkt mit einer Seite, die eine Fehlermeldung ergibt “The requested URL was rejected”. An dieser Stelle steht nichts von einem Archivlink. Das kommt erst hinterher, nämlich nach dem Punkt. Die Fehlermeldungsseite wurde also „archiviert von einem Original“. Die Webadresse des „Originals“ hingegen ergibt keine Fehlermeldung, sondern eine Web-Repräsentation eines Artikels, der ursprünglich in den Transactions der Manitoba Historical Society (Serie 3, Nr. 29, 1972/73) erschienen ist.
Tolle Leistung. Der „ursprüngliche“ Link funktioniert völlig problemlos, er wird aber erst im zweiten Satz angegeben (nach „Archiviert vom Original“). Im ersten Satz und damit privilegiert erscheint eine Fehlermeldung. Wäre der Bot überhaupt nicht eingesetzt worden, wäre der Text an dieser Stelle bedeutend besser. Es geht hier übrigens auch nicht um eine Momentaufnahme, dieser Text ist so (!) vor 45 Jahren gedruckt worden. Zusätzlich zum Internetlink wäre hier vielmehr die Angabe des ursprünglichen Druckorts erwünscht. Das kann man (nur!) ohne jeglichen Boteinsatz per Hand machen.--Mautpreller (Diskussion) 18:47, 22. Jul. 2017 (CEST)
Wir können uns gern noch die anderen drei Stellen anschauen, die alle ihre eigenen Macken haben.--Mautpreller (Diskussion) 18:47, 22. Jul. 2017 (CEST)
Die ursprüngliche Seite bleibt im Archivlink erhalten und wird auch dort eindeutig angezeigt. Der Bot veranlaßt das IA jedesmal wenn ein Link gesetzt wird, diese Seite zu archivieren. Wenn also auf eine Seite mehrfach verlinkt wird, sagen wir mal weil mehrfach zu unterschiedlichen Zeiten oder von unterschiedlichen Artikeln auf die Seite verwiesen wird, so wird es automatisch mehrfache Archivierungen geben. Diese Version ist also keineswegs zufällig, sondern genau die Version, die beim Erstellen des ursprünglichen Links vorhanden war. Der Bot leitet auf die Archivseite auch nur in dem Fall wenn die ursprüngliche Seite nicht mehr da ist. Es gibt also die Quelle nicht mehr, qua Definition. Ich denke der Artikelersteller wollte, als er den Link setzte, auf eine Information verweisen. Der Bot macht nichts anderes, als dass er diese Information für die Zukunft verfügbar macht. Möglicherweise gibt es die Information immer noch, aber auf einer anderen Seite. Ich weiß das nicht, der Bot weiß es nicht, der Leser weiß das nicht, aber der Link zeigt einen Fehler. Wenn ich nun hingehe ins Internetarchiv, so werde ich feststellen, dass es dort eine ganze Menge von Versionen gibt, keineswegs nur eine. Wenn es aber um den Beleg einer Information geht, sind alle anderen Versionen im besten Fall identisch, im zweifelsfall aber auch vollkommen anders, somit für meinen Zweck unbrauchbar. Es nutzt also gar nichts, wenn ein Link auf eine Seite gesetzt ist und keiner weiß, ob das das ist, was der Artikelersteller seinerzeit gesehen hat. Ich verstehe immer noch nicht, was der zukünftige Nutzen von einem Link ist auf einen Fundort, der entweder was anderes anzeigt, als der Artikelersteller gesehen hat, oder der eine Fehlermeldung anzeigt. Du meinst immer eine neuere Version dieser Information an welcher Stelle auch immer sei automatisch besser, das ist aber nicht immer so. Manchmal gehts ja um ein wörtliches Zitat und wie soll ich eigentlich herausfinden, dass der Artikel auf einer veralteten Quelle basiert, wenn ich die alte Quelle nicht kenne und auch nicht den möglichen Unterschied zu einer neuen Quelle? Nach deiner Ansicht sind ja unbequellte Informationen völlig OK. Richtig ist, dass uns der Bot nicht davor bewahrt, dass Artikelinhalte veralten. Ein Link auf Bildzeitung, Seite eins ist nur dann eine brauchbare Information, wenn ich nicht die aktuelle Seite eins sehen kann, sondern die, die beim Erstellen aktuell war. Die Arbeit immer wieder nach dem neuesten Stand zu suchen, wird uns der Bot nicht abnehmen, aber er kann uns dabei helfen, wenn wir wissen, was damals auf Seite eins zu lesen war.--Giftzwerg 88 (Diskussion) 18:58, 22. Jul. 2017 (CEST)
Es gibt übrigens 17 Versionen der Seite auf dem Internetarchiv zu finden, die durchaus Unterschiede haben: https://web.archive.org/web/*/http://www.mhs.mb.ca/docs/transactions/3/kennedys.shtml--Giftzwerg 88 (Diskussion) 19:07, 22. Jul. 2017 (CEST)
Es handelt sich um einen Text, der im Jg. 1972/73 der MHS-Transactions im Druck erschienen ist. Der Text hat sich nicht verändert, allenfalls die Präsentationsform. Vielleicht war er kurz mal down, wahrscheinlicher ist wohl, dass der Bot nicht erkannt hat, dass der Link problemlos funktioniert. Weshalb ich ja auch vermute, dass die angeblich so niedrige Fehlerkennungsrate geschwindelt ist.--Mautpreller (Diskussion) 19:17, 22. Jul. 2017 (CEST)

Dein Link geht auf WebCite, nicht auf das Internetarchiv. Das sind zwei paar Stiefel und ich glaube nicht, dass dieser Link von einem Bot gesetzt wurde. Und natürlich wird das Internet Archiv eine Fehlermeldung archivieren, wenn zur Zeit der Archivierung die Seite down ist. Das ist aber für gewöhnlich ein anderer Zeitpunkt, als der, zu der dieser Link in den Artikel eingepflegt wird.--Giftzwerg 88 (Diskussion) 19:26, 22. Jul. 2017 (CEST)

Das ist nicht „mein Link“, sondern der im Artikel. Ich würde einen solchen Link selbstverständlich nicht setzen. Es stimmt, soweit ich das in dem intransparenten Vorlagengestrüpp erkennen kann, dass er ursprünglich von dem en:user:Sagaciousphil gesetzt wurde, der InternetArchivebot hat ihn aber mehefach neu formatiert.--Mautpreller (Diskussion) 19:34, 22. Jul. 2017 (CEST)

Wie gesagt hat das Internetarchiv 17 Versionen aus einem Zeitraum von über 10 Jahren, die korrekte und lesbare Versionen dieser Seite sind.--Giftzwerg 88 (Diskussion) 19:39, 22. Jul. 2017 (CEST)

Die wären gar nicht nötig, denn der Text ist on und die Webrepräsentation eines gedruckten Texts.--Mautpreller (Diskussion) 19:41, 22. Jul. 2017 (CEST)

Oder: Hab mir mal die (zufällig) letzte Veränderung des Bots in en angeguckt, en:Bobby Nichols. Nu, dass es die Seite (in diesem Fall) tatsächlich nicht mehr gibt, hat schon so seinen Grund, die Werte haben sich nämlich verändert. Es gibt diese Scorecard nämlich wieder, hier: https://louisvilleky.gov/sites/default/files/parks/golf/bobby_nichols_score_card_web.jpg, freilich mit anderen Werten als die Archivversion. Komischerweise stimmt der Artikel aber mit der neuen und nicht mit der Archivversion überein, d.h. durch die automatische Einsetzung der Archivversion entsteht ein Widerspruch zwischen dem Beleg und dem Text (sowie dem zweiten Beleg, der noch vorhanden ist). Was hat der Bot hier Nützliches getan? Nichts, sondern ausschließlich Verwirrung gestiftet. Wäre gar nichts getan worden, wäre alles in Ordnung, widerspruchsfrei und belegt. Es gäbe zwar einen toten Link, aber da noch ein gültiger Beleg da ist, wäre das nicht schlimm. Noch besser wäre es natürlich gewesen, den aktuellen Link zu suchen. So haben wir die schlechteste aller Varianten: eine Inkonsistenz, die ausschließlich durch den Bot erzeugt wurde, die er aber (natürlich) nicht bemerken konnte.--Mautpreller (Diskussion) 20:43, 22. Jul. 2017 (CEST)

Nächste Stichprobe, wieder die zufällig letzte: en:Bobrinsky. Der Weblink http://bogoroditsk.amr-museum.ru/ funktioniert, was dem Bot offenbar nicht aufgefallen ist. Die Ersetzung durch den Archiv-Link https://web.archive.org/web/20051122102336/http://bogoroditsk.amr-museum.ru/ ist daher unsinnig. Vielleicht kann man noch mehr Zufallsstichproben machen, die ersten beiden sind nicht günstig ausgefallen.--Mautpreller (Diskussion) 21:28, 22. Jul. 2017 (CEST)

Mautpreller: Auch der GiftBot macht Fehler. Ich persönlich neige daher insgesamt zu einer Anbringung eines Archivlinks zusätzlich zum toten Link. Ich würde keinem Bot das Ersetzen erlauben wollen, sondern ein Mensch sollte beide Links (live, Archiv) prüfen und am Ende eine qualitative Entscheidung treffen. Das kann kein Bot, weder der IABot noch der GiftBot. Interessant wäre ein Vergleich der beiden Bots in Hinblick auf (potenziellen) Leistungsumfang, Features, Performance, Zuverlässigkeit. --Martina Disk. 23:41, 22. Jul. 2017 (CEST)

Ja, das wäre sicher interessant, wird allerdings nichts an meiner festen Überzeugung ändern, dass keiner der Bots im ANR agieren darf. Für die Talk Page wäre es aber durchaus interessant, welches Programm „besser“ ist.--Mautpreller (Diskussion) 00:26, 23. Jul. 2017 (CEST)
Ich versuche nicht, deine (oder irgendwessen) Überzeugung zu ändern. Ich versuche Informationen über die technischen Möglichkeiten (beider Bots) zu bekommen und Argumente zu verstehen und umseitig zusammenzufassen. Und natürlich: mir eine eigene Meinung zu bilden. :-) --Martina Disk. 01:55, 23. Jul. 2017 (CEST)

GiftBot

Benutzer:Giftpflanze, Benutzer:Doc Taxon, all: Angesichts des Abarbeitungsstaus neige ich zu einem zusätzlichen Archivlink im Artikel, würde aber gerne auch andere Archivdienste sehen (eben keine „#Monokultur“). Der GiftBot ist etabliert, akzeptiert, anbieterunabhängig. Ihr seid – soweit ich weiß – unabhängig, transparent, mit den lokalen Gegebenheiten vertraut. Möglicherweise könnte der GiftBot vieles umsetzen, was der IABot kann? Könnt ihr bitte ein paar Vergleichsinfos geben zu den Funktionaliäten und optionen? Was davon wäre mit dem GiftBot relativ leicht umsetzbar? Habt ihr Zahlen zur Zuverlässigkeit/Performance? --Martina Disk. 01:57, 23. Jul. 2017 (CEST)

Bei der Überlegung, was man alles mit einem nicht mehr funktionierenden Link anstellen kann, habe ich damals Veränderungen im ANR, um diese Links als tot zu kennzeichnen, ausgeschlossen, weil es eben eine unüberschaubare Anzahl an Vorlagen gibt, mit denen man jeweils auf ganz eigene Weise umgehen müsste. IABot scheint, soweit ich es verstanden habe, nur mit zwei Zitationsvorlagen und nackten Links klarkommen zu müssen, was natürlich viel einfacher ist. Mein Code schreibt aber dementsprechend nur auf Artikeldiskussionsseiten. Als Archiv wird auch WebCite/webcitation.org durchsucht, was einigermaßen brauchbar ist. Nach manueller Aussiebung von false positives scheint es bislang noch 2000 kleinere falschpositive Domains gegeben zu haben. Ich finde deine Fragen etwas unklar und bitte dich, einfach noch mal genauer zu fragen, falls du noch mehr wissen möchtest. – Giftpflanze 03:48, 23. Jul. 2017 (CEST)
Danke, Benutzer:Giftpflanze! Hm. Ich hab wenig Ahnung von den programmiertechnischen Anforderungen, deshalb kann ich vielleicht nicht so superspezifisch fragen. Ich versuche zu erfahren, ob der IABot sozusagen alternativlos ist, wenn es um die automatisierte Ersetzung durch Archivlinks oder Hinzufügung von Archivlinks direkt in unsere Artikel geht. Oder ob der GiftBot mit überschaubarem Aufwand so umprogrammiert werden könnte, dass er in Zukunft vergleichbare Aufgaben übernimmt. Wäre dies der Fall, dann würde ein Meinungsbild zu diesen Fragen komplett anders aussehen (müssen). Welche der folgenden Optionen hältst du für machbar mit deinem Bot, sagen wir „GiftBot 2.0“ (schreib gerne direkt in die Tabelle):
Optionen mit: IABot GiftBot „GiftBot 2.0“
fortlaufende Erkennung und Kennzeichnung defekter Weblinks (Einzelnachweise und Links im Abschnitt Weblinks) Ja Ja
Eintrag defekter Links in eine Wartungskategorie Ja Ja
nur oder zusätzliche Nachricht auf der Artikeldiskussionsseite Ja Ja
Ergänzung des defekten Weblinks im Artikel mit einem zusätzlichen Link zur Archivversion Nein Ja
Vollständiges Ersetzen des defekten Weblinks durch einen Link zur Archivversion Nein Ja (aber schlechte Idee)
Einschränkung des Bots auf Einzelnachweise möglich (keine Änderungen im Abschnitt Weblinks) (meldet alle defekten Links auf der Disk.) Ja
Weblinks in speziellen Vorlagen (z.B. {{EWQ}}, {{DNB-Portal}} ignorieren Ja
Anbringen einer Prüfbitte (Kennzeichnung als Boteintrag) (auf der Disk) nicht nötig, da kontinuierlich
Opt-out für ausgewählte Links mit {{cbignore}} Nein Ja
Opt-out für ausgewählte Artikel mit {{Bots}} Nein Ja
(nur) Nachricht auf der Artikeldiskussionsseite ausgewählter Artikel mit {{cbtalkonly}} Ja (für alle Artikel) Ja
* Änderung im Artikel, aber keine Benachrichtigung auf der Dikussionsseite mit {{cbnotalk}} Nein Ja
Opt-Out für irrtümlich als nicht erreichbar erkannte Webaddressen („False positives“): Auf [6] (nur für Admins einsehbar) Ja auf Modul:Vorlage:Defekter Weblink/Ignorieren (lokal, für alle sichtbar) Ja
Meldung von False positives auf [7] Ja auf Wikipedia:Defekte Weblinks/Bot2015-Problem (lokal, für alle sichtbar) Ja
prüft nur archive.org, erlaubt „Lieferung“ weiterer Archivlinks via Bot/wmfLabs archive.org, WebCite archive.org, WebCite
wmflabs-API (Dokumentation) Nein, aber Datenbank s51072__dwl_p mit defekten Links auf s3 Ja

Könnte der GiftBot relativ einfach auf folgende Aufgaben umprogrammiert werden (welche ja / welche nicht)?

Ist mein Anliegen jetzt besser verständlich? --Martina Disk. 09:27, 23. Jul. 2017 (CEST)
Ok, das ist auch nicht ganz einfach, aber immerhin weiß ich, was ich beantworten soll. Die beschriebenen Aufgaben sind alle möglich. Eine Anmerkung noch zur fortlaufenden Arbeitsweise, dass ich nur einzelne, umfangreiche Suchläufe durchführen könne: Das ist Quark, die laufen automatisch in etwa zweiwöchigem Rhythmus. Die Auslieferung (auf die Diskussionsseiten) ginge auch kontinuierlich, aber das wäre wohl ein bisschen viel für alle. – Giftpflanze 03:01, 24. Jul. 2017 (CEST)
Giftpflanze, vielen Dank! Wenn ich dich richtig verstehe, kann der GiftBot weitgehend dasselbe wie der IABot leisten, richtig? Wie schätzt du die Möglichkeiten der Zusammenarbeit beider Bots ein? Wäre es aus deiner Sicht sinnvoll, hilfreich und (mit vertretbarem Aufwand) machbar, die beiden Bots zusammenarbeiten zu lassen?
Gestumblindi, ich glaube, ein MB müsste komplett anders aufgesetzt werden, wenn ein „GiftBot 2.0“ machbar wäre. Was meinst du? --Martina Disk. 06:38, 26. Jul. 2017 (CEST)
Ich bin hier etwas verwirrt, existiert GiftBot 2.0 schon, oder muss es noch programmiert werden. IABot kann mit anderen bots gut zu recht kommen. GiftBot kann direct mit IABot kommunizieren.—CYBERPOWER (Diskussion) 06:46, 26. Jul. 2017 (CEST)
User:cyberpower678: Sorry, wenn ich mich missverständlich ausgedrückt habe. Einen GiftBot 2.0 gibt es noch nicht, er klingt aber sehr machbar. Meiner Meinung nach sollten wir alle technischen Möglichkeiten in Betracht ziehen. Benutzerin:Giftpflanze und Benutzer:Doc Taxon sind geschätzte Kollegen, sie haben viel Arbeit in die Programmierung und Wartung des GiftBots investiert. Wenn wir die Bot-Aufgaben zur Abarbeitung defekter Weblinks in Zukunft eventuell ausweiten, sollte auch ihre Arbeit und Erfahrung möglichst umfassend einbezogen werden. Ich möchte jedenfalls nicht eine Communityabstimmung vorbereiten, die bewährte Mitarbeiter und ihre Arbeit auch nur im Ansatz verdrängt. Anders sähe es aus, wenn die beiden zum Beispiel sagen würden, sie würden die Aufgabe gerne ganz oder überwiegend an dich abgeben. das habe ich aber nicht herausgelesen. Also bin ich immer noch dabei, mich in der Vielfalt der technischen Möglichkeiten zu orientieren und fühle mich noch nicht in der Lage, konkrete Vorschläge für ein Meinungsbild zu machen.
Benutzerin:Giftpflanze, was würdest du empfehlen? Alles beim Alten lassen, oder die Botaufgaben ausweiten? Das vollständige Ersetzen defekter Weblinks im Artikel durch einen Link zur Archivversion findest du eine schlechte Idee (ich auch, und ich halte das auch nicht für mehrheitsfähig). Was hieltest du davon, Einzelnachweise um einen Linkvorschlag zu ergänzen? Keine Links im Abschnitt Weblinks, keine Links in Spezialvorlagen. Und die Archivlinks zunächst als Bot-Vorschlag gekennzeichnet. Ich stelle mir vor, die Vorlage {{Cite web}} ließe sich so erweitern, dass ein Bot noch nicht das Feld «archiveurl» befüllt, sondern neue Felder «botarchiveurl1», «archivedate1», «botarchiveurl2», «archivedate2» (oder so ähnlich), so dass der Archivlink nach dem Originallink steht und außerdem für den Leser unter Vorbehalt steht.[1] Mache ich irgendwo einen Denkfehler, unterschätze die Auswirkungen, die Fehlerquellen, die Mehrarbeit, oder übersehe ich etwas Elementares? --Martina Disk. 08:54, 26. Jul. 2017 (CEST)
  1. Zum Beispiel: 13 Tzameti Plays Russian Roulette with the Plot. Scott Kaniewski, 26. November 2007;. (möglicherweise ist ein Memento verfügbar auf archive.org vom 26. Juli 2009 oder auf archive.is vom 26. November 2007)
  2. Ich rede von Erfahrung das Vorlagen zu ändern ist relativ leicht für ein Bot Programm. Quellen die nicht im Vorlagen befinden, sind wesentlich schwieriger und habe mehr als ein Jahr daran schaffen müssen bis IABot es righting machen konnte. Nur so eine Gedanke. Ich habe kein Problem mit GiftBot 2.0, aber ich dachte ich sollte euch darüber klar machen was für Technishe Hürden da auf tauchen können, hauptsächlich weil anscheinend nur 2 % von alle Quellen hier Vorlagen sind.—CYBERPOWER (Diskussion) 15:00, 26. Jul. 2017 (CEST)
    Danke, User:Cyberpower678, das sind alles gute Ideen und Anregungen! Warten wir mal auf Feedback von Gestumblindi und Giftpflanze, okay? --Martina Disk. 02:48, 27. Jul. 2017 (CEST)
    @Martina: Danke für den Mail-Ping, die Verlinkung meines Benutzernamens am 26. Juli hatte offenbar aus irgendeinem Grund keine Benachrichtigung ausgelöst. - Mir ist noch nicht recht klar, was die Idee von „GiftBot 2.0“ wäre. Eine völlig autonome Alternative zu IABot, sozusagen ein Konkurrenzvorschlag? Oder eine Kooperation mit IABot im Sinne des obigen Beitrags von Cyberpower („GiftBot kann direct mit IABot kommunizieren“), dass also GiftBot auf Basis von IABot-Resultaten agieren würde? Wenn ich obige Tabelle richtig verstehe, bietet Giftpflanze einen „GiftBot 2.0“ an, der alles kann, was auch IABot kann. Dieser ist aber noch nicht geschrieben – im Gegensatz zu IABot. Dann wäre die Frage wohl: Ist es wirklich sinnvoll, nun nochmal mit wahrscheinlich grossem Aufwand einen Bot (GiftBot 2.0) zu programmieren, wenn die von der Community gewünschten Aufgaben auch von einem bereits existierenden Bot (IABot) erfüllt werden könnten? Klingt jedenfalls nicht so effizient. Nur um bewährte Mitarbeiter nicht zu „verdrängen“? Ich denke, das kann doch kaum ein Argument sein – oder würden sich Giftpflanze und DocTaxon wirklich „verdrängt“ fühlen, wenn ihnen Arbeit abgenommen wird? Wenn die Situation so ist, dann stehen wir ja nun als Community und potentielle „Kunden“ der Bot-Angebote plötzlich vor einem ungewöhnlichen „Luxusproblem“: mehrere Botbetreiber reissen sich darum, uns beim Problem defekter Weblinks behilflich zu sein? ;-) – Sollte es wirklich dergestalt um eine Wahl zwischen dem Einsatz von IABot und GiftBot 2.0 gehen, dann müsste ein MB wirklich zweiteilig aufgebaut werden. Teil 1: Was genau wollen wir? Was soll der Bot machen (wenn überhaupt etwas)? Teil 2: Beauftragen wir mit dem Wunsch IABot oder wünschen wir uns, dass Giftpflanze einen GiftBot 2.0 schreibt? Gestumblindi 16:42, 29. Jul. 2017 (CEST)
    @ Gestumblindi : Nach derzeitigem Stand würde ich annehmen, dass etliche Benutzer den IABot ablehnen und uns vorwerfen, dass wir die eigenen Mitarbeiter und „bordeigene Mittel“ außer Acht gelassen hätten. Zunächst woltle ich gerne von Giftpflanze und DocTaxon wissen, ob sie froh wären, wenn der IABot irhe Arbeit übernimmt und sie ihm höchstens noch „zuarbeiten“, oder ob es ihnen lieber wäre, den GiftBot auf zusätzliche Aufgaben zu erweitern/umzuprogrammieren. Das würde doch stark beeinflussen, wie das Meinungsbild aufgesetzt wird, oder nicht? Erst wenn wir wissen, ob wir ein Luxusproblem haben, oder ob wir quasi eine (weitgehende) Ablösung des GiftBots anstreben, können wir anfangen, konkrete Botfunktionen und Formulierungsvorschläge für die Abstimmung diskuteiren. Von dir wollte ich gerne hören, ob du eine ähnliche oder andere Auffassung hast und wie du weiter vorgehen willst. --Martina Disk. 00:54, 30. Jul. 2017 (CEST)

    Wenn Bearbeitung des ANR im MB angenommen wird, ist es am zweckmäßigsten, dies den IABot durchführen zu lassen, da dieser schon fertig programmiert und getestet ist. Wenn nur die Bearbeitung des Diskussionsnamensraumes angenommen wird, hängt es davon ab, ob ich Zeit haben werde, denn ich hoffe im September/Oktober ein Medizinstudium aufnehmen zu können. Ich hatte zwar auch in den stressigen 3 Jahren, in denen ich mein Abitur nachgeholt habe, etwas Zeit nebenher, aber vorhersehen kann ich das nicht. @Cyberpower678: Kannst du die Vorlage:Defekter Weblink (Doku: Wikipedia:Lua/Modul/Vorlage:Defekter Weblink) und ihre Parameter benutzen? Wie sähe eine Diskussionsseitenmeldung von dir aus? @PerfektesChaos: Ich weiß, dass du gewaltige Pläne hast, was die Zukunft der Erkennung defekter Weblinks angeht, als ich mir sie angeschaut habe, habe ich dankend die Finger davon gelassen. Und auch an @Mabschaaf: Was denkt ihr, wie oft wir den GiftBot in Zukunft laufen lassen könnten? Was würden sich die Initiatoren und Mitdiskutanten wünschen? Schließlich sehe ich auch noch weitere Möglichkeiten der Zusammenarbeit zwischen IABot und GiftBot: Wir könnten die Listen mit false positives austauschen, davon würden wir beide profitieren. IABots API verstehe ich beim besten Willen nicht und das Einfachste ist immer noch eine einfache Datei. Meine liegt für alle mit Toolsforge-Zugang lesbar in ~tools.giftbot/exceptions. – Giftpflanze 18:47, 30. Jul. 2017 (CEST)

    @Giftplanze: Diskussionsseitenmeldungen werden hier gesteuert. Sehe das als Beispiel. Ich komme mit dieser Vorlage nicht ganz im Klaren. Wie genau wird es benutzt. Mit eine paar kleine Änderungen, kann ich es bestimmt verwenden. Was genau über IABot's API verstehst du nicht?—CYBERPOWER (Diskussion) 19:00, 30. Jul. 2017 (CEST)
    Diese Steuerungsseiten habe ich schon gesehen, was mir aber fehlte war ein konkretes Beispiel. Werden da dann einfach Links aufgezählt? Es wäre schön, wenn du auf so eine Meldung verlinken könntest. Die Abschnitte 2 und 3 der in Klammern verlinkten Seite sagen eigentlich alles. Vielleicht geht es dir wie mir, wenn ich die Dokumentation der API deines Bots anschaue, da verstehe ich nämlich auch nur Bahnhof. Warum so kompliziert und ist das überhaupt sicher? Gibt es auch einen Direktzugriff über eine (öffentliche) Datenbank? – Giftpflanze 19:16, 30. Jul. 2017 (CEST)
    Meinung als Mitdiskutant:
    • Ich wünsche mir eigentlich „nur“ einen Dauerbetrieb in der Art, dass ich einzelne Artikel und/oder komplette Themenbereiche jederzeit Linkwarten kann, und eben nicht auf den nächsten Botlauf warten muss. Wer das macht ist mir relativ egal; ich mag aber nicht den Gedanken dabei, dass das jemanden komplett dauerhaft auslasten würde. Effizienz ist bei der Angelegenheit irre wichtig, gerade auch auf Betreiberseite.
    • Die Diskussionsseitenbenachrichtigungen mag ich nicht so, da zeigt der IABot mit dem API wie es gehen könnte. Ein Gadget oder eine Spezialseite oder sowas könnten mit einem API kommunizieren und so gleichzeitig für Effizienz sorgen, die Wartung für die Benutzer onwiki halten, und die Bearbeitungslast von den Diskussionsseiten nehmen. Gleichzeitig verbleibt dort nichts veraltendes und vergessenes.
    • Ob es ANR-Aktivität durch Bots gibt, ist mir letztlich egal.
    Viele Grüße (und Danke für das Betreiben des Giftbots), MisterSynergy (Diskussion) 21:34, 30. Jul. 2017 (CEST)

    @Martina Nolte, Giftpflanze, Cyberpower678, MisterSynergy, PerfektesChaos: Ich bin inzwischen zur Ansicht gelangt, dass es besser wäre, dieses Meinungsbild nicht „botspezifisch“ aufzusetzen. Eine Diskussion darüber, wer genau nun mit welchem Bot oder welchen Bots agieren kann/will/soll, lenkt doch nur von der zentralen Frage ab, um die es hier gehen muss: Ob die Community bestimmte Markierungen, Ersetzungen oder Ergänzungen toter Links durch Bots will und wenn ja, in welchem Masse. Wenn sie das verneint, braucht man sich gar nicht mehr über einzelne Bots zu unterhalten. Wenn sie es bejaht, können wir es den Botbetreibern wie Cyberpower678 und Giftpflanze überlassen, sich diesbezüglich abzustimmen, dann hätten sie in einem definierten Rahmen „freie Bahn“ – wer genau was macht, würde dann einfach von ihrer Kapazität und dem, was sie untereinander aushandeln, abhängen. Giftpflanze schrieb ja gerade „Wenn Bearbeitung des ANR im MB angenommen wird, ist es am zweckmäßigsten, dies den IABot durchführen zu lassen, da dieser schon fertig programmiert und getestet ist“. Ich denke, das gehört nicht zu den Fragen, die wir als Community klären müssen. Darum würde ich das MB gerne nach Wikipedia:Meinungsbilder/Boteinsatz bei toten Links verschieben und entsprechend anpassen. Meinungen? Gestumblindi 23:11, 30. Jul. 2017 (CEST)

    Ich habe persoenlich keine Meinung über das Meinungsbild, so lange es mir sagt „Ja ich kann IABot aufbauen“, oder „Nein, keine Bots sind hier wilkommen.“ Natürlich, bevorzuge eine JA Antwort. :-). @Giftpflanze: Hier gibt es ein konkretes Beispiel, wie so eine Meldung gepostet wird. Mann kann verlinken. Bis auf Authentifizierung, ist es eigentlich recht leicht zum verstehen. Mit dieser API kannst IABot's DB zugreifen und Modifiziern, und ja es ist abgesichert. Sicherheit war Priorität Nummer 1. Lese zugriff braucht kein Konto. Also der API is öffentlich. Ich kann dir es erklären. Was genau willst du machen?—CYBERPOWER (Diskussion) 23:26, 30. Jul. 2017 (CEST)
    +1; dachte das wäre eh klar. —MisterSynergy (Diskussion) 23:20, 30. Jul. 2017 (CEST)
    Okay, Giftpflanzes Votum ist ja nun recht klar. Damit können wir m.E. die konkreten Vorschläge angehen. Gestumblindi, ich fände eine Verschiebung auf einen anbieterunabhängigen Titel gut. --Martina Disk. 23:55, 30. Jul. 2017 (CEST)
    Dann würde ich gern mal die Frage aufwerfen, ob es wirklich darum gehen soll, einem Bot „zu erlauben, Änderungen im Artikelnamensraum der deutschsprachigen Wikipedia vorzunehmen“. Wenn ja, kann ich nur auf klare Ablehnung hoffen. Dabei hätte ich gar nichts gegen Mister Synergys Wunsch, öfter und schneller Rückmeldungen zu toten Links zu bekommen. Fragt sich mithin, ob es klug ist, die Frage so zu stellen.--Mautpreller (Diskussion) 00:08, 31. Jul. 2017 (CEST)
    Es ist ja angedacht, mehrere Vorschläge zur Abstimmung zu stellen. Ja, es wird meinem Verständnis nach auch mindestens einen Vorschlag zu Änderungen direkt im ANR geben. --Martina Disk. 00:48, 31. Jul. 2017 (CEST)
    Für Bot-Edits ausserhalb des ANR braucht es kein MB; dass diese zulässig sind, ist ja eh schon der Status quo (GiftBot auf Artikeldiskussionsseiten). Eine entsprechende Abstimmungsoption ist damit m.E. auch überflüssig. Sinn dieses Meinungsbildes ist es, zu klären, ob Bots nun neuerdings auch bestimmte Änderungen im ANR vornehmen dürfen, um das Problem toter Weblinks anzugehen. Gestumblindi 03:55, 31. Jul. 2017 (CEST)
    Wie Du willst. Dann wird es hoffentlich deutlich abgelehnt werden, auch wenn der Bot prinzipiell nützlich sein könnte, sofern er nicht in den ANR schreibt. Unter „Kontra“ müsste dann stehen: Ungeachtet des potenziellen Nutzens solcher Bots können automatisierte Edits im Artikelnamensraum nicht zugelassen werden.--Mautpreller (Diskussion) 10:28, 31. Jul. 2017 (CEST)
    Du darfst das gerne ergänzen. Gestumblindi 12:52, 31. Jul. 2017 (CEST)
    @Cyberpower678: Wie man's macht, ist's falsch! Verschoben und verallgemeinert habe ich das Meinungsbild unter anderem aufgrund der Befürchtungen von Martina, dass ein IABot-spezifisches MB (wie es ursprünglich benannt und eingerichtet war), bei der Community schlecht ankommen könnte. Du befürchtest nun hingegen, dass die Community eine generelle Erlaubnis für Bots eher ablehnen würde und eher zustimmen würde, wenn es ausdrücklich nur um eine Erlaubnis für die bewährten Bots GiftBot und IABot geht. Hm... natürlich könnten wir das MB nochmal umbennen: Wikipedia:Meinungsbilder/Einsatz von InternetArchiveBot und GiftBot bei toten Links und die Vorschläge würden ausschliesslich diesen beiden und keinen anderen Bots Eingriffe in den ANR erlauben? Allerdings würde mir das wenig zukunftssicher scheinen – und es ist ja nicht so, dass es noch gar keine ANR-Edits durch Bots gibt. So entfernen Dateientlinkerbot und CommonsDelinker Einbindungen gelöschter Dateien. Und früher (vor Wikidata) wurden Interwiki-Links standardmässig von Bots gewartet, was auch zu Falschverlinkungen geführt hat, aber akzeptiert war. Was meinen andere? Gestumblindi 21:58, 31. Jul. 2017 (CEST)
    Ich würde das weiter unabhängig vom Botbetreiber gestalten. Die allgemeine Aversion gegenüber Botaktivitäten in dewiki liegt nicht daran, dass wir hier soviele inkompetente Botbetreiber hätten die nichts als Chaos anrichteten. Das Gegenteil ist der Fall, der Botzulassungsprozess funktioniert im Allgemeinen gut und Fehler machen die Bots selten. Wir brauchen „lediglich“ Regeln darüber, wieviel Automatismus bei der Weblinkwartung erlaubt sein sollte, und dann können die interessierten Botbetreiber sich im Rahmen dieser Regeln um die Arbeit streiten. Mehr als die beiden genannten Kandidaten mit Erfahrung werden sich da vermutlich aber nicht vordrängeln, schätze ich. —MisterSynergy (Diskussion) 22:13, 31. Jul. 2017 (CEST)
    Na gut. Ich überlasse es dann euch und beantworten nur Fragen.—CYBERPOWER (Diskussion) 22:25, 31. Jul. 2017 (CEST)
    Ich habe keine Sorge, dass in diesem Themenfeld unerwartet ein völlig neuer Botbetreiber aufschlagen und Chaos verursachen würde. Wenn er einen guten Job machen würde, wäre eh alles prima. Wenn er Chaos verusachen würde, würde der Bot kurzerhand abgeschaltet. --Martina Disk. 07:22, 1. Aug. 2017 (CEST)

    Weitere Gift-Bot-Läufe

    Giftpflanze hat u.a. mich oben gefragt wie oft wir den GiftBot in Zukunft laufen lassen könnten – darauf möchte ich noch antworten, auch wenn die Diskussion inzwischen weitergelaufen ist.

    Ich war immer der Überzeugung, dass der Giftbot seine eigenen Disku-Meldungen (mehr oder minder) regelmäßig überarbeiten, d.h. aktualisieren soll. Ich sehe auch praktisch keine Gründe, das nicht zu tun, vor allem, weil die Technik steht und man dazu – so wie ich es aus der Ferne beurteile – nur auf „Start“ drücken müsste. Dabei wären nicht mehr im Artikel vorhandene, aber auf der Disku noch als „tot“ gemeldete Links zu entfernen und ggf. weitere, zwischenzeitlich verrottete Links aufzunehmen.

    Der einzige gelegentlich vorgebrachte Grund, der gegen eine solche regelmäßige Tätigkeit des Bots sprechen würde, wäre die Belästigung der Autoren durch ein Fluten der Beobachtungsliste. Ich finde dieses Argument aber schwach. Autoren, die ihre „Babys“ pflegen, sind froh über frische Meldungen und aktuelle Diskus, für Portale/Redaktionen gilt gleiches. Um den Nerv-Effekt trotzdem zu dämpfen, könnte man ja ein paar Bremsen einbauen:

    • Es werden nur tote Links auf der Disku hinzugefügt/entfernt, wenn sie in einer gesichteten Artikelversion enthalten (bzw. nicht mehr enthalten) sind.
    • Die Disku-Meldung wird nur dann geändert, wenn der Artikel seit mindestens einer Woche nicht mehr bearbeitet wurde, er also einen „stabilen“ Zustand erreicht hat
    • Die Disku-Meldung wird nur dann geändert, wenn die letzte Bot-Änderung der Meldung mindestens zwei Monate zurückliegt.

    Damit sollte sicher vermieden werden können, dass der Bot beispielsweise versucht, einem Edit-War im Artikel auf der Disku hinterherzuhecheln.

    Der wirklich große Vorteil regelmäßiger Bot-Aktualisierungen der Disku-Meldung wäre, dass sich menschliche Bearbeiter nicht mehr auch noch um die Pflege der Disku-Meldung kümmern müssen, weil klar wäre, dass der Bot hinterherräumt. Dass „Linkfixer“ das sowieso nicht regelmäßig tun, sieht man an Kategorie:Wikipedia:Defekte Weblinks/Bot/Keine auffindbaren URL – dort stehen aktuell über 12700 Seiten, die auf der Disku noch eine Botmeldung haben, deren gemeldeten Links aber im Artikel gar nicht mehr vorhanden sind. Wie viele Seiten teilweise abgearbeitete Meldungen haben (die einer Aktualisierung bedürften), kann mW nicht gezählt werden.

    Sicher wäre hierzu eine 3M oder 4M hilfreich, ggf. könnte man die Eingangsfrage auch via Umfrage klären.--Mabschaaf 19:07, 31. Jul. 2017 (CEST)

    Das finde ich supergute Anregungen, besonders das Löschen abgearbeiteter Links von der Diskussionsseite und häufigere Botläufe würde ich begrüßen. Ich bin aber auch der Meinung, dass das Meinungsbild nicht die Abläufe auf der Diskussionsseite zum gegenstand haben sollte, sondern lediglich Vorschläge für Boteingriffe im Artikelnamensraum machen sollte. Also Umfrage: natürlich gerne, aber bitte unabhängig vom Meinungsbild. Gestumblindi, was meinst du? --Martina Disk. 07:22, 1. Aug. 2017 (CEST)
    Zu behaupten (und umseitig zu schreiben), dass Botbearbeitungen im ANR die Ausnahme darstellen und dass nur wenige Bots dort agieren dürfen, halte ich für sehr fragwürdig. Was ist auch zum Beispiel mit den ehemaligen Interwikibots und der Umkategorisierung, den Vorlagenänderungen und notwendigen Syntaxkorrekturen? Jeder Bot hat prinzipiell die Berechtigung, Aufgaben im ANR zu erledigen (solange sinnvoll, fehlerfrei und mit der Zustimmung der Gemeinschaft, was wir hier ja gerade zu eruieren versuchen). – Giftpflanze 12:19, 1. Aug. 2017 (CEST)
    @Martina Der Einsatz von GiftBot auf Diskussionsseiten ist ja bereits allgemein akzeptiert, Aktivitäten ausserhalb des ANR sollten sicher nicht Gegenstand dieses MB sein, aber vielleicht wäre eine (separate) Umfrage angezeigt, um sicherzustellen, dass die Community auch häufigere GiftBot-Läufe mit dem damit einhergehenden häufigeren Auftauchen geänderter Diskussionsseiten auf Beobachtungslisten akzeptieren würde. Dies wäre aber meines Erachtens auch erst sinnvoll, nachdem dieses Meinungsbild durchgeführt wurde und falls darin Eingriffe in den ANR abgelehnt werden – denn sollten Korrekturen/Markierungen direkt im ANR angenommen werden, hätten wir ja eine ganz andere Ausgangslage. @Giftpflanze: Ich finde es nicht falsch, wenn Martina „Im Artikelnamensraum wurde bisher eine geringe Anzahl von Bots zugelassen“ schreibt. Das ist schon so, insbesondere verglichen mit der englischen Wikipedia, wo es ja schon zu Editwars zwischen Bots gekommen sein soll. Man kann die Aufzählung der Bots, die bisher im ANR aktiv sind oder waren, in der Zustandsbeschreibung gerne noch komplettieren. Sehr viele sind es nun wirklich nicht. Und manche Diskutierende scheinen ja der Ansicht zu sein, dass ein Ändern von Weblinks einen bedeutend tieferen Eingriff in den ANR darstellt als das, was wir den Bots bislang gestatteten. Gestumblindi 15:22, 1. Aug. 2017 (CEST)
    Ich habe mit GiftBot auch schon mehrere kleinere Botaufträge im ANR durchgeführt und die Aussage wird auch nicht richtiger, wenn wir noch ein paar aufzählen. – Giftpflanze 17:47, 1. Aug. 2017 (CEST)
    Das ist wohl auch eine Frage der individuellen Einschätzung, was als „geringe Anzahl“ gilt. Mein persönlicher Eindruck ist, wie wohl auch jener Martinas, dass der Bot-Einsatz im ANR bei uns verglichen mit anderen Sprachversionen bislang äusserst zurückhaltend erfolgt. Man denke nur an die schwedische Wikipedia, wo Bots Massen von Artikeln gar vollautomatisch generieren, ohne menschlichen Eingriff! In Kategorie:Benutzer:Bot mit Flag stehen ganze 44 aktive Bots (in der englischen WP sind es 243), davon sind die meisten kaum oder gar nicht im ANR aktiv. Gestumblindi 18:03, 1. Aug. 2017 (CEST)
    Giftpflanze + Gestumblindi: Ich wollte hauptsächlich zum Ausdruck bringen, dass wir zwar nocht nicht sehr viel Boteinsätze im ANR kennen, aber es eben auch nicht der erste Boteinsatz im ANR wäre. Dies richtet sich an alle, die es für quasi revolutionär hielten, einem Bot Änderungen in Artikeln zu erlauben. Das ist ja offensichtlich nicht zutreffend. Die Formulierung „geringe Anzahl“ ist ja offensichtlich missverständlich. Ich denke, wir sollten stattdessen schlicht die bisherigen Bots und ihre Aufgaben im ANR benennen. Ich mach mal umseitig einen entsprechenden Formulierungsvorschlag. --Martina Disk. 07:57, 2. Aug. 2017 (CEST)

    erledigt-Markierung

    Was mich vor allem interessiert: Kann man auf einfache Weise (beispielsweise durch erl. in der Überschrift) eine Meldung auf der Diskussionsseite als „erledigt“ markieren, so dass der Bot das erkennt und den Link nicht mehr anmeckert?--Mautpreller (Diskussion) 11:04, 23. Jul. 2017 (CEST)

    @Mautpreller: Ich kann nicht fuer GiftBot sprechen, aber sollte IABot nur auf Diskussionsseiten Nachrichten hinterlassen, kann er merken welche URLs schon angemeckert wurden. Dabei lässt er nur eine Nachricht wenn schon eine neue tote URL entdeckt wurde.—CYBERPOWER (Diskussion) 21:45, 23. Jul. 2017 (CEST)
    Ich halte das nicht für besonders intuitiv, aber machbar ist das schon. Vielleicht gibt es ja noch eine Möglichkeit, die auch einfach für mich umzusetzen ist. – Giftpflanze 03:01, 24. Jul. 2017 (CEST)
    Ich bin da nicht sonderlich festgelegt. Ich möchte nur den „Anstoß“ für eine Artikelveränderung auf der Disk nicht löschen, es soll erkennbar bleiben, warum etwas geändert wurde. Wenn es ein Häkchen „abgearbeitet“ gibt oder Ähnliches, ist alles gut.--Mautpreller (Diskussion) 10:38, 24. Jul. 2017 (CEST)
    Mautpreller: Warum soll das erhalten bleiben? Ich hab dieses Unterthema mal in einen eigenen Abschnitt abgegrenzt. --Martina Disk. 06:38, 26. Jul. 2017 (CEST)
    Weil ich finde, dass Anstöße zu Artikelveränderungen samt Reaktion immer dokumentiert werden sollten.--Mautpreller (Diskussion) 17:18, 26. Jul. 2017 (CEST)
    Mautpreller : Nachvollziehbar. Andererseits würde dein Vorschlag dazu führen, dass jeder einzeln gemeldete Link als erledigt gekennzeichnet werden müsste, wenn jemand eine gemeldete Liste nur teilweise abarbeitet. Das könnte Kuddelmuddel geben. Vermutlich ist das Löschen der erledigten Links bei der Abarbeitung eindeutiger und insgesamt die einfachste Lösung. Und am Ende kann man die „geleerte“ Meldung natürlich am besten ganz löschen. --Martina Disk. 02:32, 27. Jul. 2017 (CEST)
    Gerade in diesen Fällen erscheint es mir besonders wichtig, die Nachrichten aufzubewahren. Gibt es wirklich nicht die Möglichkeit, pro gemeldetem Link abzuhaken: erledigt? Es gibt ja sehr verschiedene mögliche Reaktionen: Botfehler, Link war erreichbar; Korrektur, Live-Link eingesetzt; Streichung des Links, überflüssig; besserer Nachweis, Link gestrichen; Angabe falsch, daher samt Link gestrichen und evtl. neue eingesetzt; Archiv-Link eingesetzt; Broken Link erhalten, hier die beste Möglichkeit. Für den Bot ist wichtig, dass er weiß, es hat sich jemand drum gekümmert, daher erledigt. Für die Weiterentwicklung des Artikels könnten diese Meldungen aber wichtig sein.--Mautpreller (Diskussion) 09:50, 27. Jul. 2017 (CEST)
    Das leuchtet ein. Wenn alle gemeldeten Links (wie auch immer) abgearbeitet sind, müsste der Artikel aber aus der Kategorie defekter Weblink-Seiten entfernt werden. Wie dies technisch zu bewerkstelligen ist, sollte m.E. beim Bot diskutiert werden. Ich halte das für zu kleinteilig, um ins MB einzufließen. Falls du das als Abstimmoption aufgenommen sehen willst, bitte ich dich um einen konkreten Formulierungsvorschlag und eine Klärung der technischen Machbarkeit. Okay?--Martina Disk. 20:23, 27. Jul. 2017 (CEST)
    Nö, im MB muss es wirklich nicht sein.--Mautpreller (Diskussion) 21:03, 27. Jul. 2017 (CEST)

    false positive durch Block des Bots

    Hi, oben wurde nicht weiter thematisiert, dass der Botbetreiber angab, false positives seien dadurch zustande gekommen, dass der Bot blockiert wurde während ein „normaler“ Benutzer den Inhalt sehen würde. Der Bot hätte dann den Link als tot interpretiert und durch die Archivversion ersetzt. Dazu habe ich zwei Anmerkungen: Mit welcher Frequenz prüft dieser Bot die Links eigentlich, dass er offenbar von Serverbetreibern als lästig empfunden und geblockt wurde? Zweitens: Warum interpretiert der Bot einen HTTP-Statuscode 403 “forbidden” als 404 “not found” oder überhaupt als Problem, das ein Umschreiben auf die Archivversion rechtfertigt? Auf korrekt betriebenen Servern hat 403 eine völlig andere Bedeutung als 404 und ich glaube nicht, dass der Bot auf ein 403 mit einem Umschreiben reagieren sollte. Kurzfassung: Ich bin mir nicht sicher, dass der Botbetreiber die Netzkultur, insbesondere mittelgroßer Serveradmins so versteht, dass er sich konstruktiv mit seinem Bot im Web bewegen sollte. Grüße --h-stt !? 15:28, 25. Jul. 2017 (CEST)

    Eine gegeben Link hat eine Wartezeit von 3 Tage zwischen jede Prüfung. IABot wohnt aber bei Labs und dafür sind da andere Tools und Bots die bestimmte Server belästigen. In vielen fällen wenn eine 403 erkannt wird, ladet im Browser bei mir auch eine 403. Selten bekommt der Bot eine 403 Antwort weil der Bot vom Server blockiert wird. Da habe ich genügend Erfahrung gemacht. Tut mir leid aber dien letze Satz ist eher beleidigend mir gegenüber. Ich kenne mich mit der Netzkultur gut aus. Ich schaffe schon seit 2015 an IABot, und noch nie wurde meine Erfahrung mit Netzkultur in Frage gestellt. Ich Arbeite von Erfahrung, und nicht von Theorie.—CYBERPOWER (Diskussion) 00:09, 26. Jul. 2017 (CEST)
    Kannst du das mit den 403 noch mal erklären? Wieso reagiert dein Bot überhaupt auf einen 403? Zur Frequenz: Läuft dein Bot wirklich alle drei Tage durch alle Weblinks? Das gibt ja eine Frequenz, die nicht mal der Googlebot erreicht. Jede größere, vielfach verlinkte Website (Medien, Institutionen, etc) muss da ja aufmerksam werden. Und dein Bot teilt sich auch noch die IP mit all den anderen Lab-Projekten? Na super. Den würde ich auch blocken, wenn ich Admin in einem unterfinanzierten Projekt am Rande der Leistungsfähigkeit wäre. Welchen User-Agent gibt dein Bot denn an? Viele Fragen, aber bevor du die nicht beantwortest, kann ich mir kein Bild machen. Grüße --h-stt !? 16:50, 26. Jul. 2017 (CEST)
    Eine 403 ist eine Fehlermeldung das heisst zugriff verweigert. Aber in meisten Fällen, ist das nicht benutzt um der Bot zu blockieren sind alle Benutzer. Deshalb reagiert der Bot drauf. Nochmal sage ich das ich von Erfahrung hier arbeite. Nein er prüft nicht alle 24 Million+ Links jede 3 Tage, sondern das die Prüfwartezeit mindestens 3 Tage sind. Der prüft nur Links die auf eine gegebene Artikel gefunden wurde, wahrend der Bot es gerade analysiert, und nur wenn es schon vor mehr als 3 Tage vorhin geprüft wurde. Sonst prüft er nicht. Das gleicht sich aus das der durchschnittliche Link jeden 2. Woche geprüft wird. Der bot sieht aus wie ein Chrome web browser.—CYBERPOWER (Diskussion) 18:31, 26. Jul. 2017 (CEST)

    h-stt, bitte halte die Diskussion sachlich. Danke. --Martina Disk. 05:35, 26. Jul. 2017 (CEST)

    Hmmm – sieh dir mal die Fragen da oben an. Bin ich unhöflich oder haben wir es da mit einem Bot und Botbetreiber zu tun, der im Netz Amok läuft und von verschiedenen Admins überall in der Welt völlig zu recht geblockt wird? Und uns dann die deshalb falsch interpretierten Weblinks zerschießt? Hey, wer ist denn hier unhöflich und verletzt die Netiquette? Grüße --h-stt !? 16:50, 26. Jul. 2017 (CEST)
    Ich empfinde Deine Beiträge in diesem Thema ebenfalls als unsachlich. Du weißt im Grunde kaum etwas über das Prüfverhalten des Bots und hast ihn trotzdem schon verurteilt; wenig überraschend passt das zu Deiner Agenda, den Bot hier nicht zum Einsatz zu bringen. —MisterSynergy (Diskussion) 17:15, 26. Jul. 2017 (CEST)
    Im gleichen Beitrag, in dem du deine Höflichkeit beteuerst, schreibst du von „einem Bot und Botbetreiber (…) der ‚im Netz Amok läuft‘“? Eigenartiges Höflichkeitsverständnis. Man kann Kritik oder Bedenken auch anders anbringen. Gestumblindi 23:16, 26. Jul. 2017 (CEST)

    Die Fehlerquelle für die ungewöhnlich hohe Zahl an false positives ist ja jetzt ausgemacht und der Fehler beseitigt (siehe eins drunter). Da kann man dies ja nun abschließen. --Martina Disk. 02:28, 27. Jul. 2017 (CEST)

    False Positives durch ein Technischen Fehler behoben

    Manche haben gemeldet das viele False Positives gemeldet wurden in letzter Zeit. Es hat sich ergeben das es von eine Technischen Fehler gekommen ist, und nicht von der Algorithmus vom IABot. Dieses Fehler wurde in v1.5beta behoben.—CYBERPOWER (Diskussion) 15:03, 26. Jul. 2017 (CEST)

    Danke für die Info. In solchen Fällen würde der Bot hier vermutlich vom Brtreiber deaktiviert oder von einem Admin gesperrt, bis der Fehler behoben ist. --Martina Disk. 19:58, 26. Jul. 2017 (CEST)
    Nur um klar zu sein, es kann noch False Positives geben, aber die außergewöhnliche hohe Zahl davon sollte wesentlich reduziert sein.—CYBERPOWER (Diskussion) 02:52, 27. Jul. 2017 (CEST)
    Danke. Klar. Kein Bot ist 100 % fehlerfrei. --Martina Disk. 20:26, 27. Jul. 2017 (CEST)

    Bequemlichkeit

    Mal ehrlich, wenn ich auf einer Diskussionsseite die Giftbot-Meldung sehe, dann kümmere ich mich als Gelegenheitsautor nicht darum. Weshalb mein Egoismus? Weil es ein (zugegebenermaßen nicht zu großer!) Aufwand ist, den Link selbst zu ersetzen. Ich stoße zum Beispiel hier auf den Bothinweis. Ich weiß (eigentlich), was zu tun ist:

    • ich klicke auf den fehlerhaften Link und prüfe, ob ich durchkomme.
    • ich klicke auf den Webarchiv-Link und prüfe, ob sinnvoller Inhalt archiviert ist
      • ich entferne den false-positive-Bothinweis, oder... Ach nein, doch nicht, es muss irgendwie reported werden, was soll ich da schreiben – ach was, vergiss es einfach, der Link funktioniert ja doch, und der Gift-Hinweis schadet niemandem.
      • ich gehe auf die Artikelseite und muss den falschen Link finden (Schwierigkeit 1, denn die Links sehen komplett anders aus und sind ggf. als Einzelnachweis versteckt...), dann muss ich den Webarchiv-Link nehmen und auf eigene Faust auseinandernehmen (Schwierigkeit 2), um ihn dann in irgendso eine Vorlage (Schwierigkeit 3: wo finde ich die? Such such, natürlich im Bothinweis gut verlinkt, aber es öffnet dann schon den fünften Tab im Browser, wo man auch noch die Wahl der Qual unterschiedlicher Varianten hat...), also, in die nun copy-pastete Webarchiv-Vorlage muss ich den Archivlink hineinfummeln (Schwierigkeit 4), dann abspeichern. Puh geschafft.
    • Und eigentlich hätte ich zuvor lieber erst den Inhalt sowohl des Artikels wie auch des Einzelnachweises inhaltlich prüfen müssen: Stimmen Behauptungen, finde ich Aussagen wieder?
    • Im vorliegenden Fall funktioniert für mich weder der Defekte Weblink, noch das Internetarchiv. Wie kann ich da etwas reporten? - ach was, vergiss es einfach, die Links funktionieren halt alle nicht, vielleicht browserabhängig?, und jemand anders wird es bestimmt sicher eventuell irgendwann richten.

    So leider meine Erfahrungen mit dem Giftbot. Rechne ich mal bei 300.000 Botmeldungen für jede Link-Korrektur eine Bearbeitungszeit von 2 bis 10 Minuten und postuliere festangestellte Wikipedia-Editoren, dann fallen 5 bis 25 Personenjahre Arbeit an. Ergo betreibe ich diesen Aufwand nur, wenn mir ein Thema gerade am Herzen liegt. Dieses MB ist richtig, wichtig, und sinnvoll, auch wenn ich dem vollautomatischen Bot trotzdem skeptisch gegenüberstehe.

    Wie schön wäre es, wenn man als Nutzer mit folgendem Tool konfroniert wird: Botmeldung des defekten Weblinks auf der Diskussion gesichtet. Angegeben sind zwei Links, die ich prüfen kann (s.o. auf Funktion und auf Inhalt). Dann aber nicht der Krimskrams mit manuellem Ersetzen, sondern mehr oder weniger nur ein Button, den ich als Confirmed-User betätigen kann... Und beim nächsten Botdurchlauf (einmal pro Woche? pro Monat? Egal, selbst einmal im Jahr wäre besser als der jetzige Zustand) kann der Bot dann selbsttätig in so markierten Artikeln den defekten Link durch den Webarchiv-Link ersetzen. Liest sich vermutlich einfacher, als es für die Programmierer ist, ich weiß. --Enyavar (Diskussion) 18:19, 28. Jul. 2017 (CEST)

    Ja, ich würde mir wünschen der Bot böte für jeden angebotenen Archivink eine Kopiervorlage an, die beide Links (Original und Archiv) enthielte. So, wie man sie nach Prüfung direkt in den Artikel setzen könnte. Das würde die Abarbeitung wesentlich erleichtern, und ich würde mich da häufiger rum kümmern als bisher. --Martina Disk. 23:58, 30. Jul. 2017 (CEST)

    Löschung

    „Falls die GiftBot-Meldung der einzige Eintrag auf der Diskussionsseite war, soll mit der Vorlage {{Löschen}} die Seite zum Schnellöschen vorgeschlagen werden. Diese Löschung wird durch einen Administrator vorgenommen.“ – Wer sagt das? Wo steht das? Ich würde das ganz grundsätzlich nie tun.--Mautpreller (Diskussion) 19:47, 1. Aug. 2017 (CEST)

    Das sagt ein Meinungsbild, an dem du damals auch teilgenommen hattest – angenommen wurde die Option, dass Diskussionsseiten in solchen Fällen gelöscht werden sollen (du warst dagegen). „Ausschliesslich erledigte Bothinweise“ ist somit auch eine der Standard-Löschbegründungen, die einem in der Drop-Down-Liste beim Löschen angeboten werden. Gestumblindi 20:03, 1. Aug. 2017 (CEST)
    Tatsächlich. Wie ärgerlich, das war mir völlig entfallen. War halt wieder mal'n Schritt zur Zerstörung von Nachvollziehbarkeit. Es gab schon schlimmere MB-Ergebnisse, aber schön ist es nicht. Na gut.--Mautpreller (Diskussion) 20:44, 1. Aug. 2017 (CEST)
    Die Nachvollziehbarkeit ist ja durch die Versionsgeschichte der Artikel selbst durchaus gegeben. Auch ohne die Botmeldungen auf der Diskussionsseite kann man jederzeit nachvollziehen, wann welcher Link eingesetzt bzw. ersetzt oder entfernt wurde. Gestumblindi 17:56, 6. Aug. 2017 (CEST)

    Sache der Portale

    Warum der Portale? Das müsste auch für einzelne Artikel möglich sein. Sehr viele Artikel gehören nicht zu einem funktionierenden Portal, um andere streiten sich verschiedene Portale.--Mautpreller (Diskussion) 21:25, 1. Aug. 2017 (CEST)

    Das stimmt. Ich hatte den Opt-In-Vorschlag schon etwas umformuliert, da stand ja „nur auf Anforderung eines Portals“ – aber manchmal sind die, die sich zuständig fühlen, nicht als „Portal“ (wie P:SCHIFF), sondern zum Beispiel als „Redaktion“ (wie WP:RFF), anders oder gar nicht strukturiert organisiert. Könnte man statt „Sache der Portale“ so etwas wie „Sache der Portale, Redaktionen oder Hauptautoren, je nach Organisation im betreffenden Bereich“ schreiben? Gestumblindi 00:10, 2. Aug. 2017 (CEST)
    Ja, find ich gut.--Mautpreller (Diskussion) 09:42, 2. Aug. 2017 (CEST)

    Ich hab das jetzt entsprechend bei Vorschlag 1 ergänzt. Mit den Vorschlägen an sich bin ich aber nicht einverstanden. Dazu mehr im übernächsten Abschnitt. --Martina Disk. 05:51, 3. Aug. 2017 (CEST)

    Problembeschreibung und Lösungsansatz

    „Anderthalb Jahre nach dem letzten Suchlauf des GiftBots gibt es auf 263.467 Diskussionsseiten immer noch einen oder mehrere unerledigte Bothinweise zu defekten Weblinks. Für fast 200.000 Artikel wird ein Archivlink auf archive.org oder webcitation.org angeboten. Dem Leser wird im Artikel jedoch weiterhin nur der tote Link gezeigt.“ Das stimmt so nicht. Die Bothinweise sind zum Teil durchaus erledigt, der tote Weblink wird zum Teil nicht mehr angezeigt. Diese Zahl misst die auf Diskussionsseiten vorhandenen Meldungen, nicht jedoch, ob die „toten“ Links noch im Artikel vorhanden sind.

    „Es ist offensichtlich, dass der Rückstau defekter Weblinks mit der gegebenen Kapazität der Wikipedia-Community nicht zu bewältigen ist.“ Das ist m.E. nicht richtig, es ist keineswegs „offensichtlich“ (siehe auch oben). Wie verschiedentlich angemerkt, ist das auch mindestens nicht ausschließlich ein Problem der Kapazität (sondern auch der Bearbeitungsfreundlichkeit und der Beurteilung, wie sinnvoll eine Ersetzung toter Links ist). Es ist zudem kein „Lösungsansatz“. Der „Lösungsansatz“ ist das, was Gestumblindi zuvor geschrieben hatte: Es wird vorgeschlagen, weiter als bisher vom Prinzip „Nur Menschen bearbeiten Artikel“ abzurücken und Bots die sichtbare Einsetzung von Archivlinks direkt im Artikelnamensraum zu gestatten.--Mautpreller (Diskussion) 12:07, 2. Aug. 2017 (CEST)

    Und das ist auch gut so. Dann wäre das Problem, dass Links im Artikel gefixt wurden, aber auf der Disk noch als defekt gekennzeichnet sind, auch vom Tisch. Viele Grüße, Grueslayer 12:11, 2. Aug. 2017 (CEST)
    Und wieso ist das ein Problem? Im Übrigen ist auf der Diskussionsseite oft durchaus angemerkt, dass der Link ersetzt wurde, das steht dann da groß und breit zu lesen. Es ist die bekannte Frage, was wichtiger ist: dass die Arbeit vernünftig gemacht wird oder dass die automatisierten Wartungstools reibungslos funktionieren. --Mautpreller (Diskussion) 12:17, 2. Aug. 2017 (CEST)
    Beides, aber das habe ich ja ziemlich weit oben schon skizziert. Übrigens kritisiertest Du, dass man die Arbeit eines Bots überprüfen müsse, die automatische Benachrichtigung über eine Ersetzung möchtest Du aber (interpretiere ich...) unkritisch hinnehmen. Das passt nicht. Ich persönlich prüfe auch angeblich ersetzte Links kurz nach. Etwas nachlässig allerdings, zugegeben. Viele Grüße, Grueslayer 18:34, 2. Aug. 2017 (CEST)
    Das verstehe ich nicht. Eine „automatische Benachrichtigung über eine Ersetzung“ möchte ich natürlich nicht, weil ich Botedits im ANR grundsätzlich ablehne.--Mautpreller (Diskussion) 19:48, 2. Aug. 2017 (CEST) Gemeint war natürlich eine manuelle (menschliche).--Mautpreller (Diskussion) 20:04, 2. Aug. 2017 (CEST)

    Die Zahlen sind mM nur mit großer Vorsicht gegenüberstellbar:

    • Was wir kennen, ist die Zahl der Diskus mit Botmeldung – das sind derzeit 263.386. Dies schließt ein die Anzahl der Diskus mit komplett abgearbeiteter Linkliste aber noch vorhandener Meldung (12.764 Seiten).
    • Nicht bekannt ist dagegen die Anzahl der gemeldeten Links, die noch immer in der Botmeldung stehen und die Anzahl der Links, die zwar noch gemeldet sind, aber entweder schon in den Artikeln repariert oder entfernt sind, nicht jedoch aus den Botmeldungen entfernt wurden.
    • Wo die Zahl 200.000 angebotene Archivlinks auf archive.org oder webcitation.org herkommt, kann ich nicht nachvollziehen
    • Ursprünglich wurden im Durchschnitt 1,52 Links pro Seite als defekt gemeldet (556.698 Links / 365.671 Seiten) (Quelle)
      • Legt man diese Zahl zugrunde, käme man momentan auf (263.386 – 12.764 Seiten) * 1,52 Links pro Seite = noch rund 381.000 verbleibende tote Links
      • Tatsächlich müsste die Zahl niedriger sein, da mit dieser Methode teilweise abgearbeitete Linklisten nicht erfasst werden

    Ich wüsste derzeit keine Möglichkeit, diese Abschätzungen durch „harte“ Zahlen zu ersetzen.--Mabschaaf 19:51, 2. Aug. 2017 (CEST)

    Tatsächlich ist die Zahl höher, weil ja neue tote Links nicht erfasst sind. Benutzerin:Giftpflanze, Benutzer:Cyberpower678: Kann eine/r von euch mit vertretbarem Aufwand die aktuelle Anzahl der mutmaßlich toten Weblinks in der deutschsprachigen Wikipedia ermitteln?
    Mabschaaf: Für deine ersten zwei Bullets hab ich umseitig mal eine Präzisierung versucht. Jetzt besser?
    Die fast 200.000 Artikel kommen von [{{canonicalurl:Spezial:Suche|search=hastemplate%3A%22Defekter+Weblink%22+insource%3A%2Fwba%3D2%2F&ns1=1}} fast 200.000 Artikel] . Hatte ich von weiter oben in den MB-Entwurf übernommen. Falls das falsch ist, lasse ich mich natürlich gerne aufklären. Kann gut sein, dss ich manches technisches Detail (noch) nicht verstehe.--Martina Disk. 06:57, 3. Aug. 2017 (CEST)
    Besser, m.E. Mir wäre aber auch daran gelegen, dass unter „Lösungsansatz“ klar und deutlich steht: Es wird vorgeschlagen, dass Bots erlaubt wird, einen Archivlink direkt und für die Leser sichtbar im Artikel einzusetzen. Das scheint mir nämlich der Knackpunkt zu sein, über den abgestimmt werden muss.--Mautpreller (Diskussion) 10:17, 3. Aug. 2017 (CEST)
    @Martina Nolte: Die von Dir genannte Suche ermittelt die Anzahl der Disku-Seiten, auf denen mindestens ein Archivlink angeboten wird. Das dabei ermittelte Ergebnis hat leider keine Aussagekraft darüber, wie viele Links zu einem Artikel als defekt gemeldet wurden und zu wie vielen davon ein Archivlink genutzt werden könnte (wie bspw. auf Diskussion:Alagie Sarr: 5 defekte Links, 1 Archivlinkvorschlag).
    Ein aktueller Giftbot-Lauf würde übrigens 938.141 defekte Links auf 622.835 Seiten melden (die Suche danach läuft nämlich kontinuierlich, siehe Wikipedia:WikiProjekt Weblinkwartung#Statistik, letzte Zeile).--Mabschaaf 12:38, 3. Aug. 2017 (CEST)
    Nur der Vollständigkeit halber: mit wba= werden nur Internet-Archive-Links erfasst. Mit cit=5 und cit=6 werden WebCitation-Links erfasst, das sind dann noch einmal zusammen 6.025, was aber mit dann insgesamt 202.388 auch nichts an etwa 200.000 ändert. – Giftpflanze 15:53, 3. Aug. 2017 (CEST)
    @Mabschaaf+Giftpflanze: Danke für die Zusatzinfos! Habe sie umseitig eingebaut. --Martina Disk. 07:27, 4. Aug. 2017 (CEST)

    Vorschlag

    Bezugnehmend auf Mautpreller, 10:17, 3. Aug. 2017, schlage ich folgenden Text vor und bitte um Feedback/ Verbesserungsvorschläge:

    Das vorliegende Meinungsbild schlägt vor, Bots wie GiftBot oder InternetArchiveBot zu erlauben, bei defekten Weblinks einen Archivlink direkt und für die Leser sichtbar in Artikel der deutschsprachigen Wikipedia einzusetzen. Es werden vier verschiedene Varianten für erlaubte Botaktionen zur Auswahl gestellt.

    Vorschläge

    Ich möchte eine Diskussion darüber starten, welche Varianten zur Abstimmung gestellt werden sollen. Zwecks Übersichtlichkeit; dies sind die derzeitigen Vorschläge:

    • 1 – Archivlink zusätzlich, nur für Einzelnachweise
    • 2a – Archivlink zusätzlich, Einzelnachweise und Abschnitt Weblinks, mit Opt-out-Optionen
    • 2b – Archivlink zusätzlich, Einzelnachweise und Abschnitt Weblinks, nur nach Opt-in
    • 3 - alle IABot-Funktionen erlaubt

    Vorschlag 1 und 2a finde ich gut. Für Vorschlag 2b fehlt mir die Begründung; mir fallen auf Anhieb Szenarien ein, in denen eine solche Option eher für Verwirrung und lange Diskussionen führen würden. Vor allem mangels eines klaren Verfahrens und Festlegung der Zuständigkeit. Ausgerechnet diejenigen Artikel, für die sich weder ein Portal nocht „Hauptautoren“ zuständig fühlen, würden weder händisch gewartet noch per Opt-in-Votum automatisiert gewartet. Vorschlag 3 halte ich für völlig unrealistisch. Ich finde nicht, dass wir eine Option vorschlagen sollten, von der wir schon wissen, dass sie keine Chance hat. --Martina Disk. 06:01, 3. Aug. 2017 (CEST)

    Ich würde Vorschlag 3 gerne drinlassen, auch wenn eine Annahme unrealistisch sein mag, da das Resultat durchaus auch überraschend ausfallen könnte. Hier diskutieren wenige, am MB selbst werden viele teilnehmen, und vielleicht sind es mehr als man denkt, die den Bot in seiner ganzen „Pracht“ begrüssen würden. 2b ist schwierig, ja. Eigentlich ist es ja doch recht naheliegend, zu sagen: Wer den Bot will, soll den Bot kriegen. Opt-In eben. Das Problem sind die von dir genannten oft unklaren Zuständigkeiten, abgesehen von der Inkaufnahme, dass der Bot ausgerechnet dort nicht aktiv würde, wo sich niemand zuständig fühlt und er darum vielleicht besonders nützlich sein könnte. Vielleicht lässt sich aber doch eine brauchbare Opt-In-Variante zurechtzimmern? Ich denke noch etwas darüber nach, werde mich hier wieder zum Thema melden... Gestumblindi 23:43, 3. Aug. 2017 (CEST)
    Okay, danke.
    Eine Anregung zum derzeitigen Vorschlag 1, darin heißt es: „Meldung defekter Weblinks auf der Diskussionsseite wie bisher durch den GiftBot“. Ich würde das einschränken: für Links, für die noch keine Archivversion im Artikel verlinkt ist Das kann einen wesentlichen Unterschied machen. Manche wie Mautpreller wollen die Weblink-Historie auf der Disk. erhalten wissen, aber Wikipedia:Meinungsbilder/Umgang mit leeren Diskussionsseiten nach Entfernen erledigter Defekter-Weblink-Meldungen verstehe ich eher gegenteilig. Redundante Hinweise auf der Disk sollten meiner Einschätzung nach verhindert werden. Hinweise auf der Disk. würde ich bei Annahme des Meinungsbildes daher beschränken auf
    • Hinweise auf tote Weblinks, zu denen der meldende Bot keine Archivversion gefunden hat (das könnte ein sehr gutes, ergänzendes Betätigungsfeld für den GiftBot werden mit Linkvorschlägen zu Webcite; ansonsten: beim IABot ist dies die Option “notify_error_on_talk”)
    • Hinweise auf tote Links im Abschnitt Weblinks und ggf. Vorschläge zu Archivversionen
    --Martina Disk. 07:08, 4. Aug. 2017 (CEST)

    Beispiel

    Wenn ich mir die erste Seite in der kategorie Defekter Weblink/Bot anschaue: Diskussion:Liste von Flugunfällen und Abschüssen von Luftfahrzeugen im Afghanistankrieg, wird mir noch fragwürdiger, wie nützlich hier Archivlinks sind. Das ist eine reichlich wüste Liste, an der seit ca. 2012 inhaltlich nichts mehr gemacht wurde. Die Archivlinks sind solche Meldungen: http://wayback.archive.org/web/20140105161239/http://www.defendamerica.mil/photoessays/apr2002/p042402a2.html. Ob die Seite defendamerica.mil jemals zitierfähig war, mag man wirklich mit Fug und Recht bestreiten. Es ist nicht mehr ohne weiteres aufzuklären, ob es sich um dieselbe Organisation handelt, die die Seite http://defendamerica.nraila.org betreibt.

    Was ist damit gewonnen, wenn wir derart eher dubiose Weblinks verewigen? Es ist offensichtlich, dass das Problem dieser Liste nicht in den defekten Einzelbelegen besteht. Sondern vielmehr darin, dass die irgendwann mal aus aktuellen Meldungen wild zusammengestückelt wurde und dann schlicht liegenblieb. Es werden da nur noch „technische“ Edits vorgenommen. Wahrscheinlich gibt es längst solide Literatur zum Thema. Gut möglich, dass die Hälfte sich mittlerweile als falsch erwiesen hat oder umgekehrt die Hälfte fehlt. Wir werden solche Artikelfriedhöfe wahrscheinlich nie beseitigen (was m.E. das Beste wäre), eine gründliche Aufarbeitung, die das Einzige wäre, was dieser Liste noch nützen könnte, ist nicht in Sicht.--Mautpreller (Diskussion) 11:58, 3. Aug. 2017 (CEST)

    Und was tragen defekt bleibende Weblinks dann zur Verbesserung der Situation bei? Was ist damit gewonnen wenn wir aus schlecht belegten Aussagen völlig unbelegte Aussagen werden lassen? Wenn ich eine unbelegte Aussage lese, lösche ich sie nie, weil man sonst 70 % aller Inhalte löschen könnte. Wenn ich eine schlecht belegte Aussage sehe, dann lösche ich sie u. U., oder suche eine bessere Quelle, weil ich die Qualität der Quelle beurteilen kann. Bei archivierten Weblinks kann ich das auch im Nachhinein.
    Wenn man den Artikel inhaltlich für Kappes hält, setzt man eben einen Überarbeiten-Baustein oder stellt einen LA.
    Man kann beim Archivlink sowie auf der aktuellen Seite oft auf „About“, oder im Deutschen „Impressum“ klicken, und dann sieht man wer die Website betreibt und wer sie zum Zeitpunkt des Snapshots betrieben hat. In Deinem Beispiel funktioniert das und ich sehe: Der Betreiber ist nicht mehr der selbe. Wenn eine Domain den Besitzer wechselt hat man das gleiche Problem. Nur dass man ohne Archivlink dann gar keine Möglichkeit mehr hat zu sehen, ob der Betreiber gewechselt hat. --Nothingserious (Diskussion) 12:15, 3. Aug. 2017 (CEST)
    Falsche Frage. Das ist eine Liste, die wahrscheinlich unrettbar ist, weil sie eben aus alten Newsmeldungen zusammengezimmert wurde (vermutlich durch Übersetzung aus der englischen Liste entstanden). Was wird durch solche technischen Edits gewonnen, sollte man vielmehr fragen. Antwort: Verewigung eines Uraltstands. Die Liste erscheint dann belegt und enzyklopädisch, aber sie ist es nicht. Es wird ein Schein von Exaktheit erzeugt. Ist das ein Gewinn? Ich meine nein.--Mautpreller (Diskussion) 12:23, 3. Aug. 2017 (CEST)
    (BKBK) Wenn solch eine Ersetzung niemandem auffällt, dann tut sie auch niemandem weh. Stolpert jedoch jemand über eine solche Ersetzung auf der watchlist, dann kann er den Link und ggf. auch fraglichen Inhalt entfernen – und es kümmert sich wenigstens überhaupt einmal jemand darum. Solange die Links nur auf irgendwelchen Hinterzimmerseiten gemeldet werden, rührt häufig einfach niemand den fraglichen Link an. Das wissen wir alle, die Fallzahlen sind ja bekannt und wurden auch auf dieser Seite vielfach diskutiert.
    Ich verstehe nicht, warum „Augen zumachen“ hier als valide Lösungsstrategie angesehen werden kann, nur weil der Vorschlag in solchen Einzelfällen, die Du hier hervorkramst, händische Nacharbeit notwendig machen würde. Die Situation mit toten Weblinks ist bekanntermaßen seit langem schwierig, sie wird auch mit der Zeit nur noch schwieriger, und alle Aktivitäten außerhalb des ANR haben sich als zu wirkungslos herausgestellt. —MisterSynergy (Diskussion) 12:24, 3. Aug. 2017 (CEST)
    Yo, ich finde tatsächlich „Augenzumachen“ hier die einzige Möglichkeit. Ich sehe keine Chance, sie löschen zu lassen (was mir am liebsten wäre, das Ding ist so und so unbrauchbar). Ich sehe nicht, dass es Interesse gibt, sie in einen brauchbaren Zustand zu bringen. Mag sie verrotten. Den Schein zu wahren trägt nichts aus.--Mautpreller (Diskussion) 12:28, 3. Aug. 2017 (CEST)
    Hier klemmen und verrotten so viele Dinge, weil wir mit Rücksicht auf die vorsichtigsten Mitarbeiter alle mit stumpfen Steinzeitwerkzeugen arbeiten müssen. Das hier vorbereitete Meinungsbild wird diesen einseitigen Zustand leider nur weiter manifestieren. Ich hatte tatsächlich mal überlegt mich als Unterstützer einzutragen, sobald Abstimmungsreife vorliegt. Mache ich aber nicht mehr, weil das hier mit verschiedenen diffusen Bedenken an einem Punkt angelangt ist, an dem die Community wohl sicher nicht zustimmen wird. Eine Ablehung der vorgeschlagenen Aktion möchte ich der Community aber mit Blick auf zukünftige Vorhaben ersparen. —MisterSynergy (Diskussion) 12:53, 3. Aug. 2017 (CEST)
    Was ist daran diffus? Ich würde mich über ein Beispiel freuen, wo der Archivlink nützlich ist. Eines kenne ich selbst: Franz Paul Schneider, erster Weblink. Es sind nach meiner (sehr selektiven) Beobachtung nur sehr wenige Fälle, wo ein Archivlink sinnvoll und wünschenswert ist. Du bist offensichtlich anderer Ansicht, dann demonstrier das doch mal.--Mautpreller (Diskussion) 13:00, 3. Aug. 2017 (CEST)
    Wir arbeiten in sehr verschiedenen Bereichen, und Du scheinst wenig Einblick in meinen Bereich zu haben (ist andersrum auch so). Ich kann kaum auf Printerzeugnisse zurückgreifen, erst recht nicht auf solche mit wissenschaftlichem Charakter. Die gibt es einfach nicht. Fast alle Quellen sind Onlinequellen, und linkrot ist dann natürlich ein relevantes und ernstes Problem. Es ist deshalb höchst frustrierend, wenn andere Benutzer sinngemäß sagen: „Pech gehabt, lass es verrotten“, oder „nimm doch gedruckte Quellen, die sind eh besser“, oder „da hat eh niemand Interesse an einer Reparatur“. Nach meiner Erfahrung aus den vergangenen Botläufen sind die archivierten Versionen durchaus in der überwiegenden Mehrzahl brauchbar, und dann auch meist alternativlos mangels anderer untoter Quellen.
    Ich habe ja mittlerweile auch mehrfach kundgetan, dass ich mit einem kontinuierlichen Botlauf außerhalb des ANR leben könnte, um wenigstens weiter händisch am Problem rumfummeln zu können. Problematischer als diese Tatsache ist zurzeit nämlich, dass ich einfach keine Informationen über tote Links zur Verfügung stehen habe. Ich hoffe lediglich, dass für kontinuierliche Botaktionen ohne ANR-Aktivität dann auch Betreiber bereit wären, habe da leider kleinere Zweifel. —MisterSynergy (Diskussion) 13:20, 3. Aug. 2017 (CEST)
    Das gestehe ich völlig zu. Gib doch mal'n Beispiel, wie das aussehen kann. Was mich an dieser Debatte etwas nervt (deswegen auch immer die Beispiele), ist, dass einerseits mit riesigen Zahlen erheblicher Bedarf signalisiert wird, ohne dass man sich ein Bild davon machen könnte, was konkret tatsächlich anliegt. Andererseits dass man (vielleicht deshalb) von konkreten eigenen Erfahrungen ausgeht und diese auf andere Bereiche überträgt, ohne das explizit zu machen. Deswegen liegt mir ziemlich viel daran, den tatsächlichen Beitrag von Archivlinks zur Qualität von Artikeln in konkreten Fällen abschätzen zu können. Es wäre ja durchaus denkbar, dass man sachlich/fachlich Bereiche abgrenzen kann, wo ein Boteinsatz sinnvoll ist, und andere, wo er nicht sinnvoll ist. Meine Bedenken kommen doch nicht zuletzt daher, dass ich eine Archivlink-Flut in Artikeln befürchte, wo diese sachlich nicht angezeigt und/oder aus urheberrechtlichen, persönlichkeitsrechtlichen oder schlicht inhaltlich-editorischen Gründen störend sind. Das muss ja nicht für alle Artikel zutreffen.--Mautpreller (Diskussion) 13:52, 3. Aug. 2017 (CEST)
    BTW: Deshalb finde ich die Opt-in-Lösung auch gar nicht so abwegig. Du könntest z.B. sagen: In den von mir beobachteten Artikeln ist in aller Regel ein Archivlink sinnvoll und nützlich und lässt sich auch kaum durch etwas anderes ersetzen. Also fordere ich dafür den Bot an. Ich könnte sagen: In den von mir beobachteten Artikeln ist ein Archivlink in der Regel schädlich und nur in Ausnahmefällen brauchbar. Also fordere ich keinen Bot an. Natürlich wirft das ein neues Problem auf, nämlich das der Abgrenzung. Das wird sicher nicht ohne Nerv gehen. Das Gute an einer solchen Idee wäre aber, dass man sich zunächst mal auf Bereiche beschränken könnte, wo nach Meinung der Bearbeiter eindeutig Bedarf besteht. Man hätte keinen „Dammbruch“, sondern eine Speziallösung für ein eingegrenztes Feld.--Mautpreller (Diskussion) 14:41, 3. Aug. 2017 (CEST)
    Ich fürchte schon jetzt den daraus resultierenden Zank. Das Problem der Abgrenzung hast Du selbst genannt, allgemein könnte man das sicher gut auf die Frage nach dem (Nicht-)Eigentum an Artikeln zurückführen. Am Ende würde das also weniger bereichsweise entschieden werden, sondern es würde die Hauptautorenregel greifen, und das ist aber wieder schwierig umzusetzen. Jeden Artikel mit Ver- oder Gebotstags für Botbearbeitungen auszustatten halte ich für keine gute Idee, und auf Einzellinkbasis wird das schon gar nicht klappen. So gesehen: ich verstehe Deine Argumente, weiß aber nicht ob wir das so machen sollten (bzw. ob ich die Idee unterstützen soll). —MisterSynergy (Diskussion) 14:58, 3. Aug. 2017 (CEST)
    Ich fürchte, dass eine Opt-in-Variante vor allem die ohnehin schon unterversorgten (wenig beobachteten und wenig gewarteten) Artikel drastisch „ver(link)rotten“ lassen würde. In den gut gepflegten Artikeln wäre die händische Pflege nach einer Botmeldung auf der Disk. vermutlich weniger ein Problem als in dem Bereich, wo sich noch nicht mal jemand findet, der ein Opt-in veranlasst. Vielleicht könnte man als Kompromiss die Opt-In-Variante dahingehend ergänzen, dass ein automatisches Opt-in erfolgt, wenn in einem Artikel seit – sagen wir einfach mal – sechs Monaten nur kleine Änderungen oder Botänderungen vorgenommen wurden? Ping hierzu auch an Benutzer:Gestumblindi. --Martina Disk. 07:38, 4. Aug. 2017 (CEST)
    Das finde ich allerdings gerade nicht günstig. Es würde bedeuten, dass in Artikeln, in denen eh nur noch botartig agierende Wartungsleute editieren, noch mehr „technische Edits“ dazukommen. Wär ein klassisches Feature zur Wahrung des Scheins.--Mautpreller (Diskussion) 10:23, 4. Aug. 2017 (CEST)
    Du vermengst in diesem Abschnitt zwei Argumente. Das eine kritisiert die Bewahrung schlechter, unbrauchbarer Weblinks, die von Anfang an nicht als Quelle hätten genutzt werden sollen. Die willst du nicht in „Stahl gegossen“ sehen. Und mit dir werden wahrscheinlich andere dasselbe sagen (hstt hat in eine ähnliche Richtung argumentiert). Du führst damit hier eine Grundsatzdebatte ins Feld, die du de facto verloren hast. Es werden nunmal massenhaft Weblinks als Quellen/Belege benutzt. Die stehen nicht immer in Einklang mit WP:Q-Anforderungen und viele bleiben unter dem Radar. Konsequenerweise müsstest du alle Informationen löschen, die auf (deiner Meinung nach) ungeeigneten Quellen basieren. Nur dann macht deine Forderung nach dauerhaft toten Links überhaupt Sinn. Für den Leser sieht die Information nach wie vor „belegt“ aus. Er kann sie nicht einmal mehr selbst gegenprüfen und sich ein eigenes Bild von der Qualität und Verlässlichkeit der Quelle machen. Das halte ich für schlecht.
    Dein zweites wiederholtes Argument gegen botgenerierte Archivlinks: „Wahrung des Scheins“. Ich finde genau das Gegenteil. Ein toter Link sieht immer noch wie ein ehemals gültiger Beleg aus – das wahrt in meinen Augen den Schein in trügerischer Weise. Die Überprüfbarkeit – ein zentraler Grund dafür, dass ein Hinweis auf die Quelle in der Zusammenfassungszeile schon lange nicht mehr genügt, - geht verloren. Der Leser und andere Wikipedianer können nicht mehr nachvollziehen, ob die Quelle brauchbar war, ob sie korrekt genutzt und wiedergegeben wurde, ob die Quelle als unbrauchbar gelöscht werden sollte, womöglich die gesamte darauf basierende Information gelöscht werden sollte. Wir zementieren diesen Zustand und wahren den Schein, wenn wir die Inhalte nicht über Alternativlinks prüfbar haben. Lieber als ein Archivlink ist mir persönlich ein Buch oder live Weblink, aber offensichtlich fasst das über lange Zeiträume neimand an. Auch ich habe die Hoffnung, dass Änderungen im Artikel doch eher auf Interesse anderer Autoren stoßen und inhaltlich geprüft werden. Wenn der Archivlink einen Bothinweis und eine Prüfbitte – sozusagen einen Wartungsbaustein – enthält, wird für den Leser eben kein Schein gewahrt. Und intern stehen die Chancen auf eine auch inhaltliche/qualitative Prüfung wesentlich höher (Stichwort Wartungsbausteinwettbewerb).
    Vor allem aber: Deine Fundamentalkritik kann ich nur dahingehend verstehen, dass du so oder so das gesamte Meinungsbild ablehnst. Du kannst später ganz einfach das MB und alle Vorschläge ablehnen. Das finde ich völlig okay. Ansonsten nehme ich auch gerne deine Vorschläge auf für bessere Formulierungen, bessere Abstimmvarianten, bessere technische Erklärungen. Du kannst dich auch gerne an der Ausformulierung der Kontra-Argumente beteiligen. Eben konstruktive Beiträge zum MB leisten. Das MB einschlafen zu lassen, weil du eine grundsätzlich andere Auffassung zu Archivlinks hast, ist aber sicher keine Lösung. --Martina Disk. 08:41, 6. Aug. 2017 (CEST)
    Ja gut, da sind wir ganz schlicht unterschiedlicher Meinung. Ein Archivlink auf einen momentanen Zustand einer Website schafft nur die Illusion der Überprüfbarkeit, und genau die sollte man eben nicht schaffen. Um das Beispiel von oben zu bemühen: Die Liste müsste entweder sehr grundlegend überarbeitet werden (was die Entfernung fast sämtlicher Belege einschließen würde) oder gelöscht werden. Alles andere bessert nichts, sondern perpetuiert nur das Übel. Es wäre besser, der Artikel würde nackt dastehen als mit einem untauglichen und auch noch technisch aufgemotzten Belegapparat. Worum es mir geht: Ich sehe ein, dass die Nutzung technischer Tools zur Auffindung toter Links sinnvoll sein kann. Ich sehe auch ein, dass unter bestimmten Bedingungen und in bestimmten Artikelfeldern Archivlinks sinnvoll sein können. Dem will ich nicht im Weg stehen. Ich erwarte aber in anderen Artikelfeldern eine massive Erschütterung der Seriosität und Brauchbarkeit der Wikipedia. Daher bin ich an Möglichkeiten interessiert, wie diese beiden Dinge miteinander zu verbinden sind. Tatsächlich glaube ich nicht, dass ein allgemein geltendes Meinungsbild dazu geeignet ist.--Mautpreller (Diskussion) 20:04, 9. Aug. 2017 (CEST)

    Idee: Pilotprojekt

    Ja, ich seh den Haken schon. Ändert bloß nichts daran, dass ich einer flächendeckenden Einsetzung von Archivlinks niemals zustimmen könnte. Andere Idee: Wie wärs mit einem Pilotprojekt? Zeitlich begrenzter Versuch für ein begrenztes Gebiet, danach Evaluation.--Mautpreller (Diskussion) 15:06, 3. Aug. 2017 (CEST)
    Ja, da habe ich keine spontanen Bauchschmerzen mit. Es würde in jedem Fall helfen, das Botverhalten und den resultierenden Nutzen überhaupt einmal realistisch abschätzen zu können. Es bräuchte einen Themenbereich, in dem die relevanten Hauptautoren sich einig sind, und ein paar Benutzer, die das überwachen und die Ergebnisse geeignet protokollieren. Ggf. auch eine vorab definierte Notaus-Bedingung, falls was aus dem Ruder läuft. Weiterhin müsste der Testlauf mit vertretbarem Aufwand auch auf Seiten des Botbetreibers realisierbar sein. Ein Meinungsbild hielte ich danach für passender, sofern der Testlauf kein Desaster war. Wer hat dazu sonst eine Meinung? —MisterSynergy (Diskussion) 15:21, 3. Aug. 2017 (CEST)
    Halte ich für unkritisch, wenn die Stichprobe klein ist (sagen wir mal max. 100 Edits), die ZQ aussagekräftig („Testedit für Wikipedia:Meinungsbilder/Boteinsatz bei toten Links“, ggf. gefolgt von der sonst üblicherweise verwendeten ZQ) und die Aktion kurzfristig vorher auf WP:AN angekündigt wird.
    Ich würde dafür aber eher keinen spezifischen Themenbereich auswählen, sondern mehr oder minder zufällig (alle Artikel-IDs von x bis x+100 oder alphabetisch aufsteigend auf einen definierten Artikel folgend) editieren lassen, so finden die unterschiedlichsten Autoren etwas auf ihrer Beo.--Mabschaaf 18:12, 3. Aug. 2017 (CEST)

    Das wäre eine andere Variante. Hat auch was für sich, ich wäre allerdings zunächst mal an dem evtl. Nutzen für bestimmte Themengebiete interessiert und weniger an der "Overall-"Tauglichkeit.--Mautpreller (Diskussion) 19:40, 3. Aug. 2017 (CEST)

    Das wäre wohl eine Frage an den Botbetreiber, was er leisten kann: Wenn er beispielsweise eine dedizierte Kategorie abarbeiten kann, könnte das eine themenspezifische oder eine vergleichsweise allgemeine sein.--Mabschaaf 19:56, 3. Aug. 2017 (CEST)

    Klingt gut. Ich weiß allerdings nicht, woher der umseitige Opt-in-Vorschlag überhaupt stammt. Ich glaube nicht, dass diese Variante von Cyberpower678 erwähnt wurde. Benutzer:Cyberpower678: Ist ein Opt-in für einzelne Artikel oder für ausgewählte Kategorien (z.B. Kategorie:Liste (Deutsche Meister)) verfügbar? --Martina Disk. 08:29, 4. Aug. 2017 (CEST)

    Siehe oben, Abschnitt „Abstimm Version 1“. Die Pilotprojekt-Idee ist allerdings als Alternative zum Opt-in-Vorschlag entstanden, und genau genommen sogar dazu, jetzt ein Meinungsbild zu veranstalten. Der Gedanke war eher, dass man an einer handhabbaren Größe mal Vorstellungen darüber gewinnt, wie sich der Boteinsatz auswirken würde.--Mautpreller (Diskussion) 10:20, 4. Aug. 2017 (CEST)
    Ja, die Idee hab ich schon kapiert. Ich glaube nur, die „Abstimm Version 2b“ mit einem grundsätzlichen Opt-in hat sich irgendwer ausgedacht. In dem Katalog der Funktionalitäten ist nur von einem Opt-out für ausgewählte Links oder – via {{Nobots}} - für ausgewählte Artikel die Rede. Auch auf Meta (muss noch zuende übersetzt werden) erkenne ich nichts dergleichen. Ich frage mich daher, ob der IABot ein Opt-in überhaupt im Angebot hat. Cyberpower678 kann das beantworten. --Martina Disk. 10:36, 4. Aug. 2017 (CEST)
    Es war Grand-duc (im Zusammenspiel mit Bobo).--Mautpreller (Diskussion) 10:40, 4. Aug. 2017 (CEST)
    @Martina Nolte: IABot hat kein opt-in im Moment, aber mit https://tools.wmflabs.org/iabot/index.php?page=runbotqueue kann man IABot auf gewünschte Artikeln aufrufen.—CYBERPOWER (Diskussion) 13:29, 4. Aug. 2017 (CEST)
    Was soll denn ein Opt-In bei 2.000.000 Artikeln bringen? Das kriegen 100 Autoren mit, 10 nutzen es und decken damit einen Artikelanteil im Promillebereich ab (Zahlen zu Illustrationszwecken ausgedacht). Dafür braucht sich niemand hinzusetzen und etwas zu programmieren. Die Option würde ich persönlich nicht zur Wahl stellen, da sie zwar technisch möglich, aber sinnlos ist. Viele Grüße, Grueslayer 10:22, 4. Aug. 2017 (CEST)
    Wieso ist das sinnlos? Gegenthese: Es sind nicht „2.000.000 Artikel“, in denen Archivlinks sinnvoll wären, sondern nur ein Bruchteil davon. Die Frage ist, welche. Aber wir waren hier eigentlich bei der Idee eines Pilotprojekts und nicht mehr beim Opt-in.--Mautpreller (Diskussion) 10:27, 4. Aug. 2017 (CEST)
    Nach dem Lesen und Übersetzen der Konfigurationsmöglichkeiten des IABot ist meinem Verständnis nach ein Pilotprojekt nicht in deinem Sinne machbar, Mautpreller, weil es kein Opt-in für begrenzte Artikelgruppen bzw. Kategorien gibt. Der IABot läuft wenn dann in allen Artikeln minus denen, für die händisch ein Opt-Out (via {{Nobots}}) gesetzt ist. Optionen für einen Probelauf sind daher (meinem Verständnis nach):
    • den IABot bei uns aktivieren, aber zunächst alle Optionen deaktivieren. Dann via https://tools.wmflabs.org/iabot/index.php?page=runbotqueue einzelne Artikel prüfen lassen.
    • ein Durchsuchen der als tot markierten Links (in {{Toter Link}}) in der deWP und eine Benachrichtigung mit einem Archivlink-Vorschlag oder einer Rückmeldung, dass der Link doch live ist. Ich garantiere dir aber, dass es Mecker gibt, wenn wir einen solchen Botlauf mit Flutung der Diskussionsseiten quasi im Hinterzimmer entschieden wird.
    • Eventuell kann User:Cyberpower678 den IABot anstelle der Artikeldiskussionsseiten eine Sammelliste auf einer anderen Ausgabeseite befüllen lassen? (Ich stelle mir vor, dass dort der Artikelname , der Link zum Artikel, die tote URL und der angebotene Archivlink gelistet würden. Geht das? Mautpreller, dann könntest du den Bot auf Zuverlässigkeit prüfen.

    Weitere Meinungen hierzu? Ich möchte nicht, dass der Wunsch nach einem „Probelauf“ das Meinungsbild lahmlegt. Der laufene Betrieb des IABot kann ja auf enWP recht gut nachvollzogen werden. Von daher ist mir das Anliegen sowieso nicht wirklich verständlich. --Martina Disk. 07:58, 6. Aug. 2017 (CEST)

    Sehe das ähnlich. Neben der englischen Wikipedia könnte auch der Einsatz des IABot in der uns nahestehenden alemannischen Wikipedia, der anscheinend kurz bevorsteht, als „Probelauf“ angesehen werden. Gestumblindi 16:56, 6. Aug. 2017 (CEST)
    Prima! Danke für den Hinweis. :-) --Martina Disk. 22:27, 6. Aug. 2017 (CEST)

    Probelauf Physik

    Ich habe das Portal Physik gefragt. --mfb (Diskussion) 00:26, 7. Aug. 2017 (CEST)
    Wenn ich das recht sehe, sind Co-Initiatorin Martina und ich uns hier einig, im Rahmen dieses Meinungsbildes eher keine Option „Probelauf“ anbieten zu wollen. Wie gesagt: Andere Wikipedien bzw. Wikimedia-Projekte, die den Bot bereits einsetzen, reichen zur Demonstration eigentlich völlig aus. Gestumblindi 00:33, 7. Aug. 2017 (CEST)
    Schadet es? Es hängt nichts davon ab. Sofern es nicht zu viel Aufwand ist, sehe ich keine Nachteile. --mfb (Diskussion) 09:26, 7. Aug. 2017 (CEST)
    Hat die Zustimmung des Portals. Falls ihr Beispieledits in deutschsprachigen Artikeln machen wollt, können die gerne in Artikeln in der Kategorie:Physik und Unterkategorien gemacht werden. --mfb (Diskussion) 13:39, 7. Aug. 2017 (CEST)
    @mfb: Für alle 15305 Seiten im Kategoriebaum der Physik? Ich habe Sorge, dass dies das Meinungsbild zu lange auf Eis legen würde, bis ihr alle Änderungen prüfen und hier eine Rückmeldung geben könntet. Ich kann mir aber inzwischen gut vorstellen, eine Liste mit – sagen wir – 500 Artikellinks zu erstellen und in einen Probelauf zu schicken (311 hab ich schon zusammen :-) ). Vorher muss noch eine lokale #Dead-link.js mit Cyberpower678 abgestimmt werden. Und ihr müsstet im Probelauf erstmal mit den englischen Seiten umgehen (FAQ, Falschpositive melden.) Wäre das okay?
    @Gestumblindi: Einen sehr (!) kleinen Probelauf mit ein paar Hundert Artikeln fände ich vielleicht doch ganz gut. Das wird auch deutlich machen, welche anderen Vorbereitungen noch nötig sind (Versionsimporte?, Übersetzungen, Vorlagen erstellen, Projektseiten anpassen usw.) Was meinst du? --Martina Disk. 07:47, 8. Aug. 2017 (CEST)
    @Martina Nolte: Einen sehr kleinen Probelauf in einem definierten Bereich mit Zustimmung bzw. auf Wunsch eines Portals könnte ich mir auch vorstellen – das wäre dann aber, denke ich, Bestandteil der Vorbereitung des Meinungsbildes und nichts, worüber hier abgestimmt werden soll, oder? Gestumblindi 13:15, 8. Aug. 2017 (CEST)
    Genau. Sobald Cyberpower die dealink.js eingerichtrt hat, kann ich den Probelauf starten i--Martina Disk. 15:43, 8. Aug. 2017 (CEST)
    Wie weiter oben besprochen, dachten wir an rund 100 Edits. Die sind innerhalb eines Tages problemlos überprüft. 300-500 gehen auch, das bedeutet trotzdem eine Rückmeldung zu 100+ Artikeln innerhalb eines Tages und mehr danach. --mfb (Diskussion) 17:54, 8. Aug. 2017 (CEST)
    mfb: Oh, okay – das hatte ich uebersehen. Dann sind wir uns ja einig. Klasse – danke! --Martina Disk. 20:26, 8. Aug. 2017 (CEST)

    Probelauf Schach

    Das Portal:Schach hat auch nichts gegen einen Probelauf in den Schachartikeln. 129.13.72.198 13:41, 7. Aug. 2017 (CEST)
    Hast du bitte einen Link zu dieser Entscheidung des Portals? --Martina Disk. 07:47, 8. Aug. 2017 (CEST)

    kein Probelauf

    Ich hatte ein Botflag beantragt. Dort stellte sich heraus, dass für einen Testlauf von 100 Edits kein Botflag erforderlich ist, aber ein Geschwindigkeitslimit (Edits pro Minute) gilt, dss der IABot wohl nicht einhalten kann. Oder so. Der Forderungskatalog, den Einzelne dort aufstellen, reicht von hier an den Mond. Das halte ich nicht für angemessen für einen simplen Test und würde sagen, wir sagen das dann mal ab. Oder was meinst du, Gestumblindi ? --Martina Disk. 20:57, 10. Aug. 2017 (CEST)

    Antworten von PerfektesChaos könnte man auch ohne Unterschrift erkennen: typischerweise in Form einer Aufzählung und recht lang ;-) – Nun, einen Probelauf fand ich von Anfang an zwar denkbar, aber nicht wirklich notwendig, da man bereits in anderen Wikipedien nachvollziehen kann, wie der Bot so arbeitet. Insofern können wir den Probelauf-Vorschlag gerne vergessen. Gestumblindi 21:29, 10. Aug. 2017 (CEST)
    Wobei ein Testwiki keine schlechte Idee ist. Viele Grüße, Grueslayer 21:52, 10. Aug. 2017 (CEST)
    100 Edits wären von einem sehr aktiven Portal sehr zeitnah gepflegt worden. Niemand von denen, die sich einen Testlauf vor einem MB gewünscht haben, hat sich bei den Botanfragen beteiligt und sich für den Testlauf eingesetzt. Das wäre viel schneller und einfacher zu haben gewesen, als alles nochmal von vorne in einem nochmal anderen Wiki vorzubereiten. Ich jedenfalls hab wenig Interesse meine Zeit mit strategischen Winkelzugspielen zu verbringen und mich von Pontius nach Pilatus schicken zu lassen. Wer einen Testlauf braucht, um sich eine Meinung zu bilden, müsste sich dann jetzt selbst kümmern.
    Cyberpower wird den Bot nicht ohne „offizielle Erlaubnis“ laufen lassen. Kann ich gut nachvollziehen; der will sich vermutlich nicht die Finger verbrennen. Wenn ihm der Botflag nicht für einen Probelauf gegeben und ihm nicht mal für einen kleinen Probelauf ein Okay auf einer Funktionsseite – sinnigerweise bei den Botanfragen – zugestanden wird, gibt es halt keinen Probelauf.
    Der Bot läuft seit Jahren. Bearbeitungslisten auf diversen Wikis sind schon jetzt einsehbar. Ich werde aber – sobald ich die Einzelheiten genug verstanden habe – eine Vorher-Nachher-Liste erstellen, wo jeder sehen kann, was der Bot aus verschieden formatierten Links macht und wie der Unterschied in verschiedenen Vorlagen aussieht. Für Leute wie mich, die von den programmiertechnischen Details keinen Plan haben, wird das hilfreich sein, um sich eine eigene Meinung zu bilden. --Martina Disk. 05:59, 11. Aug. 2017 (CEST)
    Ich hab mir ein paar zufällige Botergebnisse auf der englischen Wikipedia angesehen und war nicht begeistert. Mehrere Beispiele dafür stehen oben. Habe also sehr wohl „Tests“ gemacht. Ich „brauche“ einen Testlauf nicht, um mir eine Meinung zu bilden, ob man einen derartigen Bot auf den ANR loslassen soll, damit habe ich nie hinter dem Berg gehalten. Ich würde mir eher so etwas wünschen, um den Nutzen der Markierung toter Links und des Vorschlagens von Archivlinks (womöglich nicht im ANR) abschätzen zu können. Bislang ist da kaum Material vorgelegt worden, lediglich riesige Zahlen. Bei jedem konkreten Beispiel, das ich mir bislang angeguckt habe (s.o.), war der Nutzen gering, zum Teil entstand Schaden. Nur in Ausnahmefällen war mit dem Archivlink etwas anzufangen. Ich halte es aber für glaubwürdig, was Mister Synergy sagte: Es gibt Bereiche (offensichtlich nicht „meine“), wo Archivlinks nützlich wären. Nur um das zu verifizieren, habe ich ein Pilotprojekt vorgeschlagen. Im Sinne des Meinungsbilds mag das nicht „konstruktiv“ sein, denn bei positivem Verlauf würde das heißen: In bestimmten Bereichen wäre der Bot nützlich. Es würde also weiterhin auf Ablehnung des MB in der vorgelegten Form hinauslaufen, jedoch auf die Nutzung des Bots in begrenzten Teilbereichen. Ich würde das für einen Erkenntnisgewinn halten.--Mautpreller (Diskussion) 13:33, 11. Aug. 2017 (CEST)
    Dann war dein Vorschlag wohl nur eine Finte. Bin ich glatt drauf reingefallen. Naja, dann wissen wir das ja jetzt. --Martina Disk. 15:39, 11. Aug. 2017 (CEST)
    Allmählich beginne ich mich zu ärgern. Das steht doch dort alles schon: Test der Tauglichkeit für begrenzte Gebiete, als Alternative zum MB „jetzt“ (Diskussion mit MisterSynergy), dass ich einem flächendeckenden Boteinsatz im ANR nie zustimmen würde, hab ich nun schon oft genug gesagt. Was heißt da „Finte“? Ich glaube wirklich und ganz ernsthaft, dass ein Test in einem begrenzten Gebiet vor allem mal was dafür hergeben würde, was eigentlich konkret das Problem ist, wie groß es ist, welche Bereiche es betrifft und was Archivlinks da an Nutzen und Schaden bringen könnten. Das würde auch für den Fall Informationen bieten, dass ein Bot nicht im ANR agiert, sondern Archivlinks auf der Disk vorschlägt. D.h. mich interessiert anlässlich des MB, wo und wann Archivlinks überhaupt von Nutzen sind. Du magst das für eine abwegige Frage halten, ich seh das anders. Täuschung kannst Du mir aber gewiss nicht vorwerfen.--Mautpreller (Diskussion) 17:41, 11. Aug. 2017 (CEST)
    Ok dann hatte ich dich falsch verstanden. Wenn du eine gänzlich andere Einsatzidee für den Bot hast, als wir hier zum MB vorbereiten, steht es dir selbstverständlich frei diese vorzubereiten und auf den entsprechenden Kanälen vorzuschlagen. --Martina Disk. 20:29, 11. Aug. 2017 (CEST)

    doch Probelauf

    @mfb, Cyberpower678: Wir haben von MBq (Bürokrat) jetzt doch ein Okay für einen Testlauf bekommen. Danke an Cirdan für die Mithilfe beim Antrag! Cyberpower678, dies ist eine offizielle Erlaubnis für einen eingeschränkten Zweck (100 Testedits), noch kein Botflag und noch ohne das Sichterrecht. Über die grundsätzliche Erlaubnis für den IABot wird das Meinungsbild entscheiden. Ich weiß ja, dass du auf der Wikimania bist, also keine Eile. Bitte sag mir Bescheid, wenn runbotsingle und runbotqueue aktiv sind und ich den Testlauf starten kann. Ich möchte vorher zwei, drei Artikel einzeln testen, um sicherzustellen, dass meine Texte in Zusammenfassungszeilen und auf Diskussionsseiten korrekt dargestellt werden. Es wäre auch klesse, wenn bis dahin die {{subst:plural:... von hier in die Dead-links.js übernommen werden könnten. (Es sieht derzeit so aus, als wären die schon alle gesubstet und in die Pluralform festgeschrieben worden.) Muss ich noch etwas anderes wissen doer beachten? --Martina Disk. 04:49, 13. Aug. 2017 (CEST)

    Sehe JS Diskussionsseite.—CYBERPOWER (Diskussion) 15:20, 13. Aug. 2017 (CEST)
    Wie's aussieht, findet der Test am Samstag statt. --Martina Disk. 15:40, 24. Aug. 2017 (CEST)

    Cyberpower678 hat hier einen Probeartikel bearbeitet. Da sind ein paar Sachen anders gelaufen als geplant und ich habe ihm Feedback gegeben und um Nachbesserungen gebeten. Weiß jetzt nicht, ob der Test mit dem Portal Physik trotzdem am Samstag laufen kann. --Martina Disk. 08:58, 25. Aug. 2017 (CEST)

    Wo denn? Ich sehe garnichts.—CYBERPOWER (Diskussion) 09:32, 25. Aug. 2017 (CEST)
    Sorry, hier. --Martina Disk. 09:37, 25. Aug. 2017 (CEST)

    Ergebnis des Probelaufs

    Hier und hier. --Martina Disk. 05:39, 29. Aug. 2017 (CEST)/04:24, 6. Sep. 2017 (CEST)

    Mein persönliches Fazit des Probelaufs: Der Probelauf an sich war (erwartungsgemäß) wichtig, um unerwartete Fehler zu sehen und reparieren zu können. Dann aber war die Fehlerquote recht gering und wenn Cyberpower678 weiter so gut nachjustiert, wird das absehbar noch besser werden. Ich bin noch unsicher, ob die Erkennung von toten Links so vollständig erfolgt wie beim GiftBot, aber das wäre ein leicht zu tolerierender Fehler. Die fehlerhafte Einstufung von Links als tot, obwohl sie es gar nicht waren, liegt zu 99 % an dem verkürzten Testzyklus des Probelaufs. Aus technischer Sicht ist aus meiner Sicht der IABot geeignet für einen Einsatz im ANR.
    Was aber noch verbessert werden sollte: Die Anleitung (deutschsprachig!), was im Falle einer Fehlfunktion wo und wie zu melden ist. Sowas und sowas ist jetzt nicht unbedingt selbsterklärend.
    Vor dem Probelauf und teilweise auch noch zu beginn war ich abwartend bis sketisch, nun bin ich durchaus positiv gestimmt. Kein Einstein (Diskussion) 20:54, 3. Sep. 2017 (CEST)

    @MisterSynergy, Mautpreller, Mabschaaf, Mfb, Dogbert66:: Würde mich freuen über Feedback von euch zum ersten Probelauf und vor allem zum zweiten Probelauf. --Martina Disk. 04:23, 6. Sep. 2017 (CEST)

    Ich bin schnell über die verlinkten Listen gegangen, zu mehr fehlt gerade die Zeit. Da gibt es einige Anfangsschwierigkeiten, wie das auch zu erwarten war. Der Botbetreiber ist aber offenbar schnell dabei, diese dann auch zu beheben. Diese Probeläufe sind schon aus diesem Grund sehr wertvoll, bevor der Bot überhaupt von der Kette gelassen werden kann. Ernsthafte Einwände habe ich keine, ich habe den Bot aber auch schon eine Weile auf meiner umfänglichen enwiki-watchlist im Auge und traue ihm grundsätzlich eine Menge zu. —MisterSynergy (Diskussion) 09:53, 6. Sep. 2017 (CEST)
    Ich denke, Kein Einstein hat es gut zusammengefasst. --mfb (Diskussion) 16:38, 6. Sep. 2017 (CEST)

    Ich habe den Probelauf alleine dadurch mitbekommen, dass ich einige Edits davon auf meiner Beo gefunden habe. Daraufhin habe ich längere Zeit nach einer Disku-/Feedbackseite dazu gesucht und dann aufgegeben. Ich muss gestehen, es hat mich ziemlich geärgert, dass in der Zusammenfassungszeile dieser Edits nicht klargemacht wurde, dass es sich um einen Testlauf handelt und wo man dazu kommentieren kann. Das sollte definitiv beim nächsten Mal (und dann auch im Live-Betrieb) verbessert werden.

    Zum Inhaltlichen: Ich habe die eingefügten Archivlinks nicht geprüft, ich gehe davon aus, dass das eingehend geschehen ist.

    Mit den Vorlagen der Cite-Gruppe und mit Vorlage:Internetquelle scheint IABot gut zurecht zu kommen, dort werden die Archivlinks korrekt in die richtigen Parameter eingepflegt. Was mir jedoch ziemlich missfällt, ist der Umgang mit einfachen formatieren Weblinks wie hier im Beispiel:

    • vorher: [http://world.honda.com/news/2004/c041215.html Honda Worldwide | 15 December 2004 "Honda Reveals Technologies Next-Generation ASIMO"].
    • IABot: [http://world.honda.com/news/2004/c041215.html Honda Worldwide | 15 December 2004 "Honda Reveals Technologies Next-Generation ASIMO"] {{Webarchiv|text=Archivlink |url=http://world.honda.com/news/2004/c041215.html |wayback=20060630062720 }}.
    • sollte sein: {{Webarchiv | url= http://world.honda.com/news/2004/c041215.html | wayback = 20060630062720 | text = Honda Worldwide {{!}} 15 December 2004 "Honda Reveals Technologies Next-Generation ASIMO"}}.
    Kleine Schwierigkeit am Rande: Der Linktext enthält ein Pipe, das beim Einfüllen in die Vorlage zusätzlich escaped werden muss

    Dafür, wie IABot mit „nackten“ Links umgeht, konnte ich kein Beispiel finden. Richtig wäre:

    • vorher: http://deadlink.de/test
    • sollte sein: {{Webarchiv | url= http://deadlink.de/test | wayback = 2017nnnnnnnnn | text = }}

    Auch dafür, wie tote Links aus Vorlage:Literatur oder ganz generell aus anderen Link-erzeugenden Vorlagen behandelt werden, habe ich kein Beispiel gefunden. Das wäre mM wichtig darzustellen.--Mabschaaf 21:20, 7. Sep. 2017 (CEST)

    @Cyberpower678: Könntest du die von Mabschaaf angeregten Anpassungen vornehmen? Gestumblindi 23:50, 16. Sep. 2017 (CEST)
    Ja, sollte gehen. Ist eine kleine Einstellungsaenderung.—CYBERPOWER (Diskussion) 04:14, 17. Sep. 2017 (CEST)
    Mabschaaf, Weblinks aus anderen Link-erzeugenden Vorlagen sollte der Bot ignorieren. Er wird nur Weblinks in Einzelnachweisen ändern ("nackte" Links und Links in den Vorlagen Cite Web, Internetquellen, Webarchiv und toter Link).
    Im Live-Betrieb wird der Bot sich "ausweisen" mit Links nach Benutzer:InternetArchiveBot sowie die FAQ ([https://de.wikipedia.org/w/index.php?title=Benutzer%3AInternetArchiveBot%2FDead-links.js&type=revision&diff=169172244&oldid=168608704 eben eingesetzt, nachdem ich beide Seiten lokal angelegt hatte). --Martina Disk. 08:22, 17. Sep. 2017 (CEST)

    Finaler Probelauf?

    • Ich denke, dass Mabschaaf (21:20, 7. Sep. 2017 (CEST)) eine Antwort bekommen sollte.
    • aao wurde zugestimmt, dass es auch einen dritten Probelauf geben sollte: Wir sollten vorab herausarbeiten, was der IABot da noch vorher dazulernen sollte bzw. was wir eigentlich sehen wollen.

    @Martina Nolte, Gunslinger.1970, Gestumblindi: habe ich hier etwas nicht mitbekommen oder sollten wir diese Punkte noch angehen vor einem Start? Kein Einstein (Diskussion) 23:44, 16. Sep. 2017 (CEST)

    Meiner Meinung nach wissen wir jetzt eigentlich schon genug über den Bot und haben von seinen Aktivitäten (auch in anderen Sprachversionen) genug gesehen, um dieses Meinungsbild gut informiert durchführen zu können. Gestumblindi 23:48, 16. Sep. 2017 (CEST)
    Ich kann einen dritten Probelauf durchfueren wenn ihr es wollten.—CYBERPOWER (Diskussion) 04:17, 17. Sep. 2017 (CEST)

    Dead-link.js

    User:Cyberpower678: Egal ob für den Probelauf oder später nach Annahme des Meinungsbilds oder sogar bei Ablehnung der Bearbeitungen im Artikelnamensraum (main pages) – früher oder später brauchst du sowieso Übersetzungen für eine lokale Dead-links.js. Dafür kannst du die folgende Tabelle (unten) benutzen. Ich habe diejenigen Parameter/Werte gesetzt, deren Annahme ich für am wahrscheinlichsten halte. Auch für einen begrenzten Probelauf wären das m.E. erstmal die besten Optionen. Sag Bescheid, wenn etwas unklar ist oder ich etwas flasch verstanden habe oder wenn du glaubst, dass etwas so nicht gut funktionieren kann. Danke! --Martina Disk. 07:47, 8. Aug. 2017 (CEST)

    @Martina Nolte: touch_archive ist aktiv in deiner Tabelle. touch_archive überschreibt existierende Arkiv URLs mit was der Bot für richtig hält. Ich glaube nicht das dewiki das Akzeptieren wird. archive2_tags und archive3_tags sind unzulässige Werte. Die gehören im cite_tags Parameter. Die solltest du in Ruhe lassen. notify_error_on_talk ist wenn die Wayback Machine eine Quelle nicht archivieren kann. Dabei tut sich sowieso nichts wenn archive_alive aus ist. Die solltest du vielleicht aus lassen.—CYBERPOWER (Diskussion) 16:49, 8. Aug. 2017 (CEST)
    Übrigens gibt es auch m:InternetArchiveBot/FAQ.—CYBERPOWER (Diskussion) 16:50, 8. Aug. 2017 (CEST)
    @Martina Nolte: Benutzer:InternetArchiveBot/Dead-links.jsCYBERPOWER (Diskussion) 17:30, 8. Aug. 2017 (CEST)
    @Cyberpower678:: Vielen Dank!
    touch_archive auf 0 erledigtErledigt
    notify_error_on_talk auf 0 erledigtErledigt
    archive2_tags  Ok
    cite_tags (das ist nicht <ref>/,ref name="">?) finde ich nirgends in der Dead-links.js. In deWP sind das {{Webarchiv}}, {{Internetquelle}}, {{Cite web}}.
    In Benutzer:InternetArchiveBot/Dead-links.js sind offenbar alle {{subst:plural:... schon gesubstet worden? :-( Ich hoffe, es werden Leerzeilen eingefügt?
    Bot Flag: ich guck nachher mal, wo du das kriegst. --Martina Disk. 21:03, 8. Aug. 2017 (CEST)
    @Martina Nolte: Da musst du wohl die ContentModel ändern. Spezial:ChangeContentModel macht das für dich. Stell es auf JSON.—CYBERPOWER (Diskussion) 21:07, 8. Aug. 2017 (CEST)
    Zum Botflag hier entlang bitte: WP:BOT/BFA. Allerdings werden Testedits dort für gewöhnlich ohne Flag durchgeführt. Hier scheinen es ein paar mehr zu sein *schulterzuck* – Giftpflanze 21:51, 8. Aug. 2017 (CEST)
    @User:Cyberpower678: Nur Administratoren können Spezial:ChangeContentModel sehen und ändern. Was ist JSON? Das wird jetzt zu technisch für mich. Hier müsste Gestumblindi einsteigen. Bitte sagt mir Bescheid, wenn der IABot sozusagen „scharfgeschaltet“ ist. Ich möchte und vielleicht möchte ja auch noch jemand anderes ein paar ausgewählte Artikel gezielt einzeln testen, bevor wir den größeren Physik-Testlauf starten.
    Giftpflanze: Danke! Ich hab ein Botflag beantragt.
    Und nochmal an Cyberpower678: Kannst du die {{subst:plural:... (aus der Tabelle unten) so in das Dead-links.js übernehmen, dass die Zusammenfassungszeilen, Überschriften und Nachihten nachher wahlweise in Singular doer Plural ausformuliert werden? Außerdem: Willst du die Benutzerseite des Benutzer:InternetArchiveBot selbst ins Deutsche übersetzen, oder bist du einverstanden, wenn das jemand anderes macht? --Martina Disk. 04:19, 9. Aug. 2017 (CEST)

    **link_scan** 1
    **page_scan** 0
    **dead_only** 0
    **tag_override** 1
    **archive_by_accessdate** 1
    **touch_archive** 0
    **notify_on_talk** 1
    **notify_error_on_talk** 0
    **talk_message_header** „{{subst:plural:{linksrescued}|Defekter Weblink|Defekte Weblinks}}“
    **talk_message** " {{nicht archivieren|Zeigen=nein}}

    {{Kasten|1=Die folgenden {linksrescued} Weblinks wurden von einem Bot („InternetArchiveBot“) als nicht erreichbar erkannt.</nowiki>
    * Ausführliche Erläuterungen und Hilfe zur korrekten Behebung {{subst:plural:{linksrescued}|dieses Fehlers|dieser Fehler}} finden sich auf [[Wikipedia:Defekte Weblinks]] und in der [[:en:Benutzer:Cyberpower678/FaQs#InternetArchiveBot|FAQ des Bots]] (englisch; lokale FAQ wird noch erstellt).
    * Ist ein von einem Bot als defekt gemeldeter externer Link doch erreichbar, dann bitte [https://tools.wmflabs.org/iabot/index.php?page=reportfalsepositive hier berichten]. Sonstige Probleme mit dem Bot bitte [[Benutzer Diskussion:Cyberpower678|hier melden]]. }}

    Der Bot hat mit [{diff} dieser Bearbeitung] {{subst:plural:{linksrescued}|diesen Weblink|diese {linksrescued} Weblinks}} im Artikel [[{namespacepage}]] verändert:
    {modifiedlinks}

    Bitte prüfe die {{subst:plural:{linksrescued}|Bearbeitung|Bearbeitungen}} und lösche dann diesen Eintrag. "

    **talk_message_header_talk_only** „{{subst:plural:{linksrescued}|Defekter Weblink|Defekte Weblinks}}“
    **talk_message_talk_only** " {{nicht archivieren|Zeigen=nein}}


    {{Kasten|1={{subst:plural:{linksrescued}|Der folgende Weblink wurde|Die folgenden {linksrescued} Weblinks wurden}} von einem Bot („InternetArchiveBot“) als nicht erreichbar erkannt.
    * Ausführliche Erläuterungen und Hilfe zur korrekten Behebung {{subst:plural:{linksrescued}|dieses Fehlers|dieser Fehler}} finden sich auf [[Wikipedia:Defekte Weblinks]] und in der [[:en:Benutzer:Cyberpower678/FaQs#InternetArchiveBot|FAQ des Bots]] (englisch; lokale FAQ wird noch erstellt).
    * Ist ein von einem Bot als defekt gemeldeter externer Link doch erreichbar, dann bitte [https://tools.wmflabs.org/iabot/index.php?page=reportfalsepositive hier berichten]. Sonstige Probleme mit dem Bot bitte [[Benutzer Diskussion:Cyberpower678|hier melden]]. }}

    Der Bot hat {{subst:plural:{linksrescued}|diesen defekten Weblink|diese {linksrescued} defekten Weblinks}} im Artikel [[{namespacepage}]] gefunden:
    {modifiedlinks}

    "Bitte prüfe und korrigiere {{subst:plural:{linksrescued}|den Weblink|die Weblinks}} und lösche dann diesen Eintrag."

    **talk_error_message_header** „Probleme beim Archivieren {{subst:plural:{linksrescued}|eines|von}} Weblinks“
    **talk_error_message** " {{nicht archivieren|Zeigen=nein}}


    {{Kasten|1={{subst:plural:{linksnotrescued}|Der folgende Weblink konnte|Die folgenden {linksnotrescued} Weblinks konnten}} von einem Bot („InternetArchiveBot“) nicht archiviert werden.
    * Ausführliche Erläuterungen und Hilfe zur korrekten Behebung {{subst:plural:{linksrescued}|dieses Fehlers|dieser Fehler}} finden sich auf [[Wikipedia:Defekte Weblinks]] und in der [[:en:Benutzer:Cyberpower678/FaQs#InternetArchiveBot|FAQ des Bots]] (englisch; lokale FAQ wird noch erstellt).
    * Ist ein von einem Bot als defekt gemeldeter externer Link doch erreichbar, dann bitte [https://tools.wmflabs.org/iabot/index.php?page=reportfalsepositive hier berichten]. Sonstige Probleme mit dem Bot bitte [[Benutzer Diskussion:Cyberpower678|hier melden]]. }}

    Bei der Archivierung hat der Bot für {{subst:plural:{linksnotrescued}|diesen Weblink|diese {linksnotrescued} Weblinks}} folgende Fehlermeldungen erhalten:
    {problematiclinks}
    Der Bot wird keine weiteren Versuche zur Archivierung {{subst:plural:{linksnotrescued}|dieses|dieser}} Weblinks unternehmen. "

    **deadlink_tags** {{Toter Link}}“ „{{Internetquelle}}“ (offline=ja )
    **archive1_tags**
    **archive2_tags**
    **archive3_tags**
    **paywall_tags** {{Subscription required}}
    {{Registration required}}
    **verify_dead** 1
    **archive_alive** 0
    **notify_on_talk_only** 0
    **convert_archives** 1
    **mladdarchivetalkonly** „{link} wurde als defekt erkannt. Vielleicht ist eine archivierte Version geeignet: {newarchive}“
    **mltaggedtalkonly** „{link} wurde als defekt erkannt. Der Bot hat keine Archivversion in der [[Wayback Machine]] gefunden. Andere Archive wie [[WebCite]] und [[Archive.today|Archive.is]] wurden nicht geprüft.“
    **mltagremovedtalkonly** „{link} wurde als tot markiert, aber der Bot erkennt ihn als live (aufrufbar). Bitte prüfe den Link und entferne ggf. im Artikel die Markierung als toter Link.“
    **mladdarchive** „Der Bot hat die URL {link} um den Archivlink {newarchive} ergänzt.“
    **mlmodifyarchive** „Der Bot hat für die URL {link} den früheren Archivlink {oldarchive} durch den neuen Archivlink {newarchive} ersetzt.“
    **mlfix** „Der Bot hat die Formatierung/Syntax der URL {link} korrigiert.“
    **mltagged** „Der Bot hat für die URL {link} die Vorlage {{Vorlage|Toter Link}} eingefügt.“
    **mltagremoved** „Der Bot hat für die URL {link} die Vorlage {{Vorlage|Toter Link}} entfernt.“
    **mldefault** "Der Bot hat einen Einzelnachweis mit der URL {link} verändert. "
    **plerror** „{problem} ergab Fehlermeldung: {error}“
    **maineditsummary** „Testedit für [[Wikipedia:Meinungsbilder/Boteinsatz bei toten Links]]: {linksrescued} Archivlink(s) ergänzt und {linkstagged} Links als defekt/tot markiert.“
    **errortalkeditsummary** „Botbenachrichtigung über Fehler beim Versuch der Archivierung von Links“
    **talkeditsummary** „Testedit für [[Wikipedia:Meinungsbilder/Boteinsatz bei toten Links]]: veränderte Links in Einzelnachweisen; bitte überprüfen“

    Fragen an Cyberpower

    @User:Cyberpower678: Nachdem ich m:InternetArchiveBot nach m:InternetArchiveBot/de übersetzt habe (ich hoffe, das prüft noch jemand mit besserem technischen Verständnis), habe ich ein paar neue Fragen:

    Im umseitigen Entwurf für das Meinungsbild kündigen wir an, dass der IABot im Artikel einen zusätzlichen Hinweis ( Info:) an den Link anhängen kann.

    • Beispiel: Aus dem ursprünglichen Einzelnachweis
      Abwasserbeseitigung. Abgerufen am 13. Februar 2011.

    soll nach der Botbearbeitung werden:

    • Abwasserbeseitigung. Archiviert vom Original am 13. Februar 2011; abgerufen am 13. Februar 2011.
       Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft (bitte prüfe den Link gemäß Anleitung und entferne dann diesen Hinweis)

    In den Konfigurationsoptionen ist für mich nicht erkennbar, wie ein solcher Hinweis angebracht werden könnte. Offenbar kann man in der Dead-links.js nur Formulierungen für die Zusammenfassungszeile (...editsummary) und für Nachrichten auf der Diskussionsseite festlegen, nicht aber für die Bearbeitungen im Artikel selbst. Verstehe ich das richtig? Würdest du das noch für die deutschsprachige Wikipedia programmieren können und wollen, falls dies eine Bedingung für die Annahme des Meinungsbildes ist? (Sonst müssen wir das aus dem Entwurf nehmen. Kann man machen, aber ich schätze die Chancen schlechter ein, wenn ein bot-generierter Link nicht als solcher kenntlich gemacht wird).

    In den Konfigurationsoptionen gibt es die Möglichkeit citation_tags, talk_only_tag, no_talk_tags, ignore_tags aufzulisten. In en:User:InternetArchiveBot/Dead-links.js finde ich die aber nicht wieder.

    • <ref> und <ref name=""> sind vermutlich sowieso dieselben Steuerungsparameter wie in der englischen Wikipedia. Könnten auch noch andere citation tags in Frage kommen und wie würde das mit dem IABot kommuniziert?
    • Du hast geschrieben, in der enWP wird no_talk_tags gesteuert mit der Vorlage: {{cbnotalk}} Wie wird das mit dem IABot kommuniziert? Wie würde dies auf deWP gesteuert?
    • Die gleiche Frage gilt für talk_only_tag und {{cbtalkonly}}
    • Wie wird ignore_tags gesteuert?
    • en:User:InternetArchiveBot/Dead-links.js listet paywall_tags; diese Funktion ist auf m:InternetArchiveBot#Configuration nicht dokumentiert. Was hat es damit auf sich?

    Außerdem habe ich die rund 500 bekannten false positives in reportfalsepositive eingetragen (c&p'd) und erhielt die Meldung. These URLs were not found in the DB and will be ignored für die gesamte Linkliste. Jetzt frage ich mich, wie wir diese schon bekannten Links in den IABot einspeisen könnten, um Doppelmeldungen zu vermeiden.

    Danke im Voraus für deine Antworten! --Martina Disk. 08:00, 6. Aug. 2017 (CEST)

    Die false positives findest du eher hier: WP:Defekte Weblinks/Bot2015-Problem/Archiv, oder hier: toollabs:giftbot/exceptionsGiftpflanze 13:02, 6. Aug. 2017 (CEST)
    Danke, Giftpflanze! Das Ergebnis der Meldung dieser Links an den IABot hab ich in eine Klappbox hierunter übertragen. Ich weiß nicht, wieso mein Account der “English Wikipedia” zugeordnet wird und ob das irgendeine Auswirkung auf die Verarbeitung hat. Am wenigtsen verstehe ich die Rückmeldung „These URLs were not found in the DB and will be ignored:“. Welche Datenbank und was bedeutet das für die Verarbeitung meienr Meldung, User:Cyberpower678? Irritierend ist auch, dass man nach dem Senden keine Bestätigung bekommt, sondern stattdessen eine Aufforderung sich (nochmal) anzumelden: „Login required. To use the tools on this interface, you must be logged in with your Wikipedia account. Login to get started.“ --Martina Disk. 22:20, 6. Aug. 2017 (CEST)
    Für hier ausgelagerten Text siehe /Klappbox.
    
    • @Martina Nolte: Ich bin bereit IABot so einzurichten wie es möglich geht so das dewiki, IABot mit offenen Armen akzeptieren will. Das heist dieses Botmarkierung kann ich in IABot's dewiki Modul programmieren. IABot hat verschiedene arbeite Module für unterschiedliche Wikipedias. Die Artikel Bearbeitung wird zum Grossteil im Modul Programmiert, aber die Konfigurationsoptionen, kann IABot's Benehmen ändern. Ich kann mal eine Prototyp Modul installieren und zur Verfügung stellen. Parameter die nicht definiert sind, sind auf Standardwerte gesetzt. Die Standardwerte für citation_tags, talk_only_tag, no_talk_tags, ignore_tags, sind jeweils die komplette Liste von Zitat vorlagen in alle Sprachen IABot kennt, , , und .
      • IABot erkannt alle Zitatvorlagen, in alle programmierte Sprachen. Wenn dewiki integriert wird, werden alle Deutsche Vorlagen mit programmiert.
      • Die Vorlage wird im Artikel irgendwo platziert. IABot erkennt das als Signal keine Nachricht zu hinterlassen.
      • Die Vorlage wird im Artikel irgendwo platziert. IABot erkennt das als Signal nur eine Nachricht zu hinterlassen, und die Artikel in Ruhe zu lassen.
      • Die Vorlage wird an ein Referenz oder Link angeheftet im Artikel. IABot erkennt das als Signal um eine bestimmte Quelle komplett zu ignorieren.
      • IABot erkennt . Wenn die Vorlage im Artikel irgendwo platziert wird, IABot bleibt vom Artikel fern, unter hinterlässt keine Nachricht.
      • paywall_tags ist eine Liste von Vorlagen die Quellen für IABot identifizieren, die eine Konto braucht um den Inhalt zuzugreifen. IABot merkt sich die Domains um false positives zu vermeiden. Kurz erklärt IABot lernt davon.
      • IABot's DB muss erst mal die URL eingespeichert haben, und dass passiert nur wenn IABot die URL von einer Artikel aufnimmt. Um es abzukürzen kann ich die dewiki DB abrufen und die URLs einspeichern. Dann kann die FP liste ein gespeist werden.
      • Die Tool sollte dich nicht ausloggen. Sessions sollte dauerhaft sein. English Wikipedia ist der Standard Wikipedia. Du kannst deins auswählen wenn ich IABot für dewiki Programmiert habe.
    • Hoffentlich hilft das.—CYBERPOWER (Diskussion) 03:10, 7. Aug. 2017 (CEST)
    @User:Cyberpower678: Super, vielen Dank! Es wäre klasse, wenn du die dewiki URLS in deine Datenbank aufnehmen könntest. Früher oder später werden Daten und Dienste deines Bots für uns hilfreich sein. Ich bin überzeugt, dass deine Arbeit nicht vergebens sein wird.
    Ich habe angefangen Dead-links.js ins Deutsche zu übersetzen (und auch sprachlich an unsere bisherigen Nachrichten anzupassen). Falls wir – wie es oben angeregt wird – auf Portalwunsch einen oder zwei Probeläufe/Pilottests (via runbotqueue) durchführen, ist die für dich dann schon weitgehend vorbereitet. Einen Probelauf würden wir mit den vorhandenen Mitteln und Vorlagen laufen lassen; d.h. ohne die individuellen/händischen Opt-outs (cbnotalk, cbignore, cbtalkonly). Ich gucke mir mal an, was uns sonst noch dafür noch fehlt. --Martina Disk. 03:26, 8. Aug. 2017 (CEST)
    nachträglicher Ping an @User:Cyberpower678 für die Nachricht eins höher. --Martina Disk. 03:26, 8. Aug. 2017 (CEST)

    Aktuelle Situation

    Das nur der GitftBot das macht stimmt so nicht, meiner macht auch was. Bei mir ist es allerdings „halbautomatisch“, also ein Mensch stellt eine Ersetzungstabelle zusammen, und mein Bot kümmert sich dann um sonst sehr mühselige ersetzen. In diesem Jahr war da zwar noch nicht so viel, aber im letzten Jahr habe ich damit schätzungsweise mehr als 80.000 ANR Edits durchgeführt (außer dieser Aufgabe macht mein Bot sonst nur sehr selten Edits im ANR). Viele Grüße, Luke081515 16:26, 8. Aug. 2017 (CEST)

    Luke: Danke. Das wusste ich nicht. Wie heißt dein Bot? Benutzer:Luke081515Bot – ich passe das umseitig an. --Martina Disk. 04:22, 9. Aug. 2017 (CEST)


    IABot False Positive Rate auf fast 0 reduzieren

    Eine import Liste wird wahrscheinlich unnötig sein. Sehe dieses Ticket. Ich arbeite an eine Method False Positives automatisch zu entdecken, und selber korrigieren.—CYBERPOWER (Diskussion) 15:21, 9. Aug. 2017 (CEST)

    Ok, klingt klasse! Wir sollten unbedingt vermeiden, dass bereits gemeldete false positives nochmal eingetragen werden. --Martina Disk. 15:37, 9. Aug. 2017 (CEST)
    Das ist … genial. – Giftpflanze 16:46, 9. Aug. 2017 (CEST)

    Nochmals Lösungsansatz

    „Es ist offensichtlich, dass der Rückstau defekter Weblinks mit der gegebenen Kapazität der Wikipedia-Community nicht zu bewältigen ist.“ Das ist eine Tatsachenbehauptung, die m.E. mindestens partiell falsch ist. Es ist sehr fraglich und mit den gegebenen Mitteln nicht zu beantworten, ob der Befund (viele Botmeldungen unbearbeitet) wirklich an der „Kapazität“ der Wikipedia-Community liegt. In der Diskussion wurde eine ganze Reihe von anderen Gründen besprochen. Einer davon, nämlich der Mangel an Bedienungskomfort, spielt sogar in den Pro-Argumenten eine bedeutende Rolle. Im Übrigen müssten die vom Bot gesetzten Links ohnehin von ebender Community überprüft werden, der die Kapazität dazu abgesprochen wird. „Offensichtlich“ scheint mir hier nichts.--Mautpreller (Diskussion) 23:21, 9. Aug. 2017 (CEST)

    Mir schon. Aber du kannst gerne einen Umformulierungsvorschlag machen. --Leyo 23:25, 9. Aug. 2017 (CEST)
    Eine Möglichkeit wäre zum Beispiel: Zahlreiche tote Weblinks sind trotz der bisherigen Möglichkeiten, diese auf der Diskussionsseite zu melden, nicht ausgeräumt. Wir sehen nicht, dass dies sich unter den gegebenen Bedingungen bessern wird. (Und so weiter.) --Mautpreller (Diskussion) 23:37, 9. Aug. 2017 (CEST)
    Damit bin ich (als Urheber der kritisierten Formulierung) einverstanden, möchtest du deinen Vorschlag umsetzen? Gestumblindi 00:47, 10. Aug. 2017 (CEST)

    Können wir bitte Zahlreiche tote Weblinks sind trotz der bisherigen Möglichkeiten, diese auf der Diskussionsseite zu melden, nicht ausgeräumt. umformulieren zu Zahlreiche tote Weblinks sind trotz Meldungen auf der Diskussionsseite nicht ausgeräumt.  ? Es gibt ja nicht nur die Möglichkeit zur Meldung, sondern eine sechsstellige Zahl wurde gemeldet (und trotzdem nicht abgearbeitet). Liest sich außerdem flüssiger, finde ich. :-) --Martina Disk. 04:55, 10. Aug. 2017 (CEST)

    Gestumblindi: Ich hier fang mal an, dich zu offenen Fragen anzupingen. --Martina Disk. 15:42, 11. Aug. 2017 (CEST)
    Wie ich sehe, wurde diese Stelle schon entsprechend geändert und ich bin damit einverstanden. Gestumblindi 20:41, 11. Aug. 2017 (CEST)

    Ergänzen vs. Ersetzen: welche Vorlagen darf der Bot benutzen?

    Ich finde die Formulierungen in den derzeitigen Vorschlägen bezüglich Ersetzen des Originallinks und Ergänzen durch einen Archivlink nicht eindeutig. {{Webarchiv}} ergänzt den Archivlink in der Vorlage, aber für den Leser ist der Originallink nicht mehr sichtbar, für ihn wurde der Originallink durch einen Archivlink ersetzt. Demnach müsste die Verwendung von {{Webarchiv}} durch einen Archivbot eine eigene Vorschlagsvariante 3 sein, oder?
    Außerdem ist mir bei den Vorlagen {{Toter Link}} und {{Webarchiv}} nicht klar, woraus die überhaupt gebildet werden. Aus einem „nackten“ Link, der nicht in eine Weblinkvorlage eingebunden war? Wenn ja, wie würde der Bot dann erkennen, was der Titel, Herausgeber, das Datum, das Zugriffsdatum waren? Ich veranschauliche das mal hier drunter. --Martina Disk. 07:47, 10. Aug. 2017 (CEST)

    Ein Spaßvogel hat meinen umseitigen toten Abwasser-Beispiellink (Archivversion) aus Wikipedia entfernt, noch nicht einmal mit dem verfügbaren live Link ersetzt. Danke dafür. --Martina Disk. 09:09, 10. Aug. 2017 (CEST)

    Neues Beispiel

    Der Bot ermittelt aus der Versionsgeschichte das Datum der Einfügung und behandelt dies als das Zugriffsdatum. Anschlie0end sucht der Bot eine Archivversion möglichst kurz vor dem Zugriffsdatum. Angenommen, es wäre von Anfang an eine Vorlage verwendet worden; dann sähe das Vorher-Nachher mit dem Bot so aus:

    Vorlage Parameter Vorher nachher
    {{Toter Link}} Variante 1 url = ASFINAG-Serviceheft – ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten (PDF; 6,58 MB; Seite 8 von 61) ASFINAG-Serviceheft – ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten (PDF; 6,58 MB; Seite 8 von 61) @2Vorlage:Toter Link/www.asfinag.at (Seite nicht mehr abrufbar. Suche in Webarchiven)
    {{Toter Link}} Variante 2 url = ASFINAG-Serviceheft – ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten (PDF; 6,58 MB; Seite 8 von 61) ASFINAG-Serviceheft – ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten (PDF; 6,58 MB; Seite 8 von 61) (Seite nicht mehr abrufbar, festgestellt im August 2017.) ]
    {{Webarchiv}} url=
    wayback=
    (oder webciteID=
    oder archive-is=)
    ASFINAG-Serviceheft – ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten (PDF; 6,58 MB; Seite 8 von 61) ASFINAG-Serviceheft – ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten (PDF; 6,58 MB; Seite 8 von 61) archiviert (Memento vom 5. November 2012 im Internet Archive)Fehler bei Vorlage * Parametername unbekannt (Vorlage:Webarchiv): "author"Vorlage:Webarchiv/Wartung/URL Fehler bei Vorlage:Webarchiv: enWP-Wert im Parameter 'url'.
    {{Internetquelle}}
    Variante 1
    url=
    offline=
    archiv-url=
    ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten. Abgerufen am 28. November 2012. ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten. Umweltportal, archiviert vom Original am 5. November 2012; abgerufen am 28. November 2012.
    {{Internetquelle}}
    Variante 2
    url=
    offline= ja
    archiv-url=
    ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten. Ehemals im Original (nicht mehr online verfügbar); abgerufen am 28. November 2012.@2Vorlage:Toter Link/www.asfinag.at (Seite nicht mehr abrufbar. Suche in Webarchiven) ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten. Archiviert vom Original am 5. November 2012; abgerufen am 28. November 2012.
    {{Cite web}}
    Variante 1
    url=
    offline=
    archiveurl=
    ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten. Abgerufen am 13. Februar 2011. ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten. Archiviert vom Original am 5. November 2012;.
    {{Cite web}}
    Variante 2
    url=
    offline= ja
    archiveurl=
    ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten. Ehemals im Original (nicht mehr online verfügbar); abgerufen am 13. Februar 2011.@2Vorlage:Toter Link/www.asfinag.at (Seite nicht mehr abrufbar. Suche in Webarchiven) ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten. Archiviert vom Original am 5. November 2012;.
    Gestumblindi: Wie verstehst du das „Ergänzen“ in Vorschlag 1 und 2 – muss der Originallink für den Leser sichtbar bleiben oder darf er auch unsichtbar werden und gilt trotzdem als (in der Vorlage) ergänzt? Oder sollten wir dazu eine weitere Abstimmpotion einfügen? Die automatische Archivierung aller bei uns verwendeten Weblinks im Internet Archive erlauben wir in keiner Version, oder? --Martina Disk. 15:45, 11. Aug. 2017 (CEST)
    @Martina Nolte: Meiner Meinung nach sollte der Originallink in diesen Vorschlägen sichtbar bleiben. Hat für den Leser auch den Vorteil, dass er unmittelbar selbst testen kann, ob er wirklich (immer noch) nicht funktioniert, oder vielleicht will er den Link auch anderweitig verwenden. - Die Archivierung bei uns verwendeter Weblinks im IA, ob automatisch oder nicht, hat ja erstmal grundsätzlich keine Auswirkungen auf die Wikipedia (das IA kann archivieren, was es will, unabhängig davon, ob wir einen solchen Archivlink dann auch verwenden), insofern ist das m.E. gar kein Thema, über das man hier abstimmen kann. Wenn jemand dafür sorgen will, dass das IA alles archiviert, was hier verlinkt ist, kann er das machen, wir können ihn ja nicht daran hindern (und warum sollten wir?). Gestumblindi 20:46, 11. Aug. 2017 (CEST)
    @Martina Nolte, Mautpreller: Ich sehe, dass in den Vorschlagstexten unter „Nicht erlaubt“ gegenwärtig sogar ausdrücklich „Automatisierte Anforderung von Sicherungen aller in der deutschsprachigen Wikipedia verwendeten Weblinks in einem Archivdienst durch einen hiesigen Bot. (Ob einzelne Archivdienste von sich aus Massenspeicherungen machen, ist jedoch nicht von uns steuerbar)“ steht. Ich halte ein solch explizites Verbot aus oben angeführten Gründen für entbehrlich und das MB unnötig verkomplizierend (auf jeden unnötigen Ballast sollte verzichtet werden). Es würde zudem gleichzeitig mit der Erlaubnis für Bots, bestimmte Aktionen vorzunehmen, neu ein bislang so nicht bestehendes Verbot anderer Aktionen einführen – was Abstimmende, die nichts gegen „Massenspeicherungen“ in einem Archivdienst haben, vor eine Zwickmühle stellen könnte. Wie gesagt: Ein Bot, der einem Archivdienst Anweisungen gibt, bestimmte Weblinks zu archivieren, ändert in der Wikipedia allein damit noch rein gar nichts. M.E. kein Thema für dieses Meinungsbild. Gestumblindi 22:02, 11. Aug. 2017 (CEST)
    @Martina Nolte, Mautpreller, Gestumblindi: Es werden bereits seit 2013 automatisch alle neu in die Wikipedia eingefügten URLs im Internet Archive archiviert, die lesen per IRC Spezial:Letzte Änderungen mit. Das funktioniert meiner Erfahrung nach recht zuverlässig, es ist daher sehr häufig eine Archivversion zum richtigen Zeitpunkt verfügbar.--Cirdan ± 22:42, 11. Aug. 2017 (CEST)
    @Cirdan: Danke – wenn das eh schon seit Jahren so ist, ist das definitiv ein hier irrelevanter Punkt und wir können das MB diesbezüglich entschlacken. Danke! :-) Gestumblindi 22:50, 11. Aug. 2017 (CEST)
    Als Beispiel: diese Änderung sorgt für die Speicherung sechs Minuten später (die Zeiten im Internet Archive sind UTC): im Internet Archive. Dass dieser Service schon länger funktioniert, sieht man auch daram, dass der letzte GiftBot-Lauf erstaunlich häufig Archivversionen zu genau dem Tag hervorgebracht hat, an dem der Einzelnachweis gesetzt wurde. Wir profitieren also schon jetzt davon.--Cirdan ± 22:55, 11. Aug. 2017 (CEST)

    Gestumblindi : Ich hatte diesen Punkt aufgebracht, weil der IABot ein feature hat, mit dem der Bot alle Links nach IA „meldet“. D.h. auch solche aus einer Zeit, bevor IA selbst mit dem Massenspeichern begonnen hat. Und ich glaube eben, dass wir das nicht machen und als Option nicht erlauben sollten. --Martina Disk. 00:45, 12. Aug. 2017 (CEST)

    @Martina Nolte, Cyberpower678: Verstehe ich das Feature richtig: Wenn der IABot prüft, ob ein Link noch funktioniert, besteht die Möglichkeit, dass er ihn gleich ans Internet Archive zum Archivieren meldet, falls dies der Fall ist? Warum genau findest du das eine schlechte Idee, Martina – Mautprellers grundsätzliche Archivierungs-Vorbehalte scheinst du ja nicht zu teilen? Wenn wir hier wirklich auch darüber abstimmen sollen, dann würde ich das als Zusatzfrage gestalten. Es geht ja um etwas anderes als um die Diskussion über Eingriffe in den ANR, sollte nicht damit vermengt werden – und auch nicht Abstimmende vor ein Dilemma stellen, die für einen der Vorschläge sind, ohne zugleich dieses Feature verbieten zu wollen. Die Abstimmung würde also um einen Punkt „Zusatzfrage“ ergänzt, diese könnte etwa lauten: „Soll es Bots wie dem IABot erlaubt werden, bei der Überprüfung auf defekte Weblinks zugleich sofort die Archivierung bei Anbietern wie dem Internet Archive auszulösen, wenn ein Weblink noch erreichbar ist?“ Gestumblindi 22:54, 12. Aug. 2017 (CEST)
    Internet Archives Archiviert automatisch alle neue Links die zu Wikipedia hinzugefügt wird. IABot muss nichts machen, aber die Fähigkeit besteht das IABot das machen kann besteht aber.—CYBERPOWER (Diskussion) 00:03, 13. Aug. 2017 (CEST)
    Gestumblindi : Für mich macht es einen Unterschied, ob wir vorhandene externe Ressourcen nutzen, oder ob wir einen einzelnen Anbieter aktiv beschicken und damit quasi eine externe Resource unsererseits schaffen. Meiner Meinung nach müssten wir das dann z.B. auch mit WebCite und 19 anderen ? machen (falls ich das nicht flasch verstanden habe, scheint die Technik im Wikiversum länger verfügbar zu sein). Meinem Gefühl nach würden wir mit einer Erlaubnis für dieses Feature ein gänzlich neues Fass aufmachen, das über das Ziel und Thema des MB hinausgeht. So verstehe ich auch deinen Punkt – wir haben solche Verbote nicht – nur kommen wir zu einem anderen Schluss. Ich würde die Funktion verbieten, Du in Vorschlag 3 alle erlauben, also auch diese.
    Ich hab umseitig – entsprechend Giftpflanzes Fragen weiter unten – mal den Vorschlag 3 spezifiziert. Darin sind nicht mehr alle Funktionen des IABot pauschal erlaubt, sondern in einer Positiv- und einer Negativliste abgegrenzt. Die aktive Meldung von Links an die Wayback Machine ist darin nicht enthalten. Wir regeln diesen Punkt also nicht in diesem MB. Ich glaube, so wäre es in unser beider Sinne, oder? Sorry, ich will's nicht komplizierter als nätig machen, aber wir sollten auch nicht versehentlich Dinge erlauben oder verbieten.--Martina Disk. 09:20, 13. Aug. 2017 (CEST)
    @Cyberpower678: Ich glaube, es würde um ältere Links gehen, die schon lange in der Wikipedia sind und die noch nicht archiviert sind. Oder hat das Internet Archive inzwischen eh schon alle in der Wikipedia vorhandenen Links, die noch erreichbar sind, archiviert? Gestumblindi 03:10, 13. Aug. 2017 (CEST)
    @Martina Nolte: So wie ich es sehe, ist ein solches Feature zur Zeit weder erlaubt noch verboten. Da es keine Änderungen in der Wikipedia selbst auslöst und auch keine besonderen Berechtigungen benötigt, können wir einen Bot auch gar nicht daran hindern – wir könnten höchstens den unverbindlichen Wunsch äussern, er möge das doch bitte nicht tun, wobei das Internet Archive nun offenbar ja eh schon, wie diskutiert, ohne unser Zutun seit Jahren alle in der Wikipedia (neu) verlinkten Seiten automatisch archiviert. Insofern ist der Punkt sowieso nur noch von ziemlich limitierter Relevanz, er käme höchstens einmalig zum Zuge, sofern nicht eh schon alles Erreichbare archiviert ist (siehe meine obenstehende Frage an Cyberpower). - Die Formulierung von Vorschlag 3 finde ich gut. Gestumblindi 17:33, 13. Aug. 2017 (CEST)
    Ich glaube, wir sollten hier nicht zwei unterschiedliche Dinge miteinander vermischen: Wikipedia lesen darf jeder, auch jeder Bot. Google und Co lesen in Echtzeit alle Änderungen mit, genauso wie es das Internet Archive tut. Darauf haben wir keinen Einfluss und solange sich diese Dritten an die Nutzungsbedingungen der WMF halten, gibt es auch keinen Grund, etwas dagegen zu unternehmen. Wenn das Internet Archive oder eine andere Institution die von uns verlinkten Seiten archivieren möchte, steht ihnen das frei.
    Etwas anderes ist es, wenn es darum geht, in die Wikipedia zu schreiben. Das können wir als Community im Rahmen der Wikipedia:Grundprinzipien über Meinungsbilder usw. regulieren. Wir sollten uns also darauf beschränken, im Rahmen dieses Meinungsbilds auch nur das zu diskutieren, was überhaupt durch uns geregelt werden kann.--Cirdan ± 18:42, 13. Aug. 2017 (CEST)

    Vorher-Nachher mit dem IABot

    @User:cyberpower678: Wie handhabt der Bot das fehlende Zugriffsdatum bei solchen „nackten“ Links, die nicht in Vorlagen eingebunden waren und für die kein Datum angegeben wurde? Beispiel: ASFINAG-Serviceheft – ASFINAG Autobahnmeistereien – Regionale Zuständigkeiten (PDF; 6,58 MB; Seite 8 von 61) --Martina Disk. 09:09, 10. Aug. 2017 (CEST)

    @Martina Nolte: Der Bot macht eine Binäresuch von der Verlauf.—CYBERPOWER (Diskussion) 14:21, 10. Aug. 2017 (CEST)
    Was bedeutet das? Wie sieht das aus? --Martina Disk. 20:27, 10. Aug. 2017 (CEST)
    @Cyberpower678:: Du meinst vermutlich Binäre Suche. Der Bot durchsucht die Versionen nach dem Datum der Einfügung und sucht nach einer Version möglichst zeitnah vor diesem Edit. Klingt sehr gut! Soweit so klar. Meine Frage ist aber diese:
    Vor ca. 2 Wochen hattest du diesen Link als Beispiel für die Ergänzung eines „nackten“ Links in einem Einzelnachweis angegeben. Wir haben sehr viele solcher Einzelnachweise, die keine Weblink-/Zitiervorlage nutzen. Die in deinem Beispiel Bodo Otto verwendete Vorlage {{Webarchive}} ist bei uns eine Weiterleitung auf {{Webarchiv}} und die verhielte sich wie nachfolgend. Das geht also auf deWP nicht. Was würde der Bot bei uns stattdessen machen? --Martina Disk. 06:57, 11. Aug. 2017 (CEST)
    IABot wird für dewiki adaptiert. Webarchiv wird korrect verwendet.—CYBERPOWER (Diskussion) 15:40, 11. Aug. 2017 (CEST)
    Okay, danke! Und als Zugriffsdatum auf den Originallink wird das Datum des Edits in der Versionsgeschichte definiert? --Martina Disk. 15:48, 11. Aug. 2017 (CEST)
    PS: Wird der Titel auch automatisch erkannt und eingesetzt? Wie vermeiden wir, dass der Titel zwimal angezeigt wird? --Martina Disk. 15:52, 11. Aug. 2017 (CEST)/19:10, 12. Aug. 2017 (CEST)

    runbotqueue

    @User:cyberpower678: runbotqueue ist scheinbar noch nicht für die deutschsprachige Wikipedia eingerichtet. Kannst du das machen, damit ich einzelne Artikel „händisch“ testen kann? Du brauchst dafür kein Botflag. --Martina Disk. 09:24, 10. Aug. 2017 (CEST)

    Dewiki muss erst eingerichtet werden. Botqueue ist deaktiviert so lange IABot keine Offizielle Erlaubnis hat.—CYBERPOWER (Diskussion) 14:23, 10. Aug. 2017 (CEST)
    Wenn du uns nichts zum Angucken gibst, entweder in einem Test mit händisch eingegeben Artikeln oder mit einer Vorher-Nachher-Liste, wird es schwieriger die Vorteile des IABot einzuschätzen und sich für ihn zu entscheiden. Ich habe mich jetzt wochenlang eingelesen, um die Funktionalitäten und Optionen in Bezug auf den Output zu verstehen und habe immer noch einige Fragen, wie das dann nachher aussehen wird. Das wird anderen noch viel mehr so gehen. Ich versuche deshalb, die ganze Sache sehr anschaulich darzustellen. Aber ich brauche dafür deine Hilfe. Sonst wird das nichts --Martina Disk. 20:39, 10. Aug. 2017 (CEST)
    Ich gebe dir schon was anzugucken. Nur keine Panik. Ich bitte um etwas Geduld. :-)—CYBERPOWER (Diskussion) 01:42, 11. Aug. 2017 (CEST)
    Okay. :-) --Martina Disk. 05:25, 11. Aug. 2017 (CEST)

    Vorschlag 3 und Auftrag an Bot

    Was ist an Vorschlag 3 konkret anders als an Vorschlag 2? Vorschlag 1 und 2 erscheinen mir gut abgegrenzt. Was Vorschlag 3 bedeutet ist mir jedoch recht schleierhaft. Werden dann defekte Links komplett durch einen Archivlink ersetzt? Dann sollte man das so schreiben. Oder kommen da noch eine ganze Menge andere Sachen dazu (die Liste, was IABot macht ist zwar lang, aber aus funktioneller Sicht nicht sehr erhellend)? Dann finde ich aber, dass wir besser ganz konkrete Vorschläge aufstellen sollten. Und dann frage ich mich schon länger, was „Auftrag an Bot“ jetzt genau bedeutet. Einerseits finde ich da den Aspekt, dass man den Bot beauftragen kann, einen bestimmten Artikel zu prüfen und Archivlinks einzufügen. Andererseits das Einfügen eines Archivlinks durch den Bot mit der Bitte an die Benutzer, die Richtigkeit dieser Einfügung zu überprüfen. Was davon ist gemeint? – Giftpflanze 19:22, 11. Aug. 2017 (CEST)

    Sehe ich genau so. Die erlaubten Funktionen sollten konkret benannt werden Mit dem Auftrag an den Bot geht es mir wie dir. Ich glaube das hatte Bobo eingefügt. .M.E kann das besser als Bedingung zu den erlaubten Funktionen ergänzt werden. Oder? --Martina Disk. 20:19, 11. Aug. 2017 (CEST)

    @ Giftpflanze, Gestumblindi : So? --Martina Disk. 07:38, 13. Aug. 2017 (CEST)

    Seit 2013 wird jede URL, die in die Wikipedia eingefügt wird, automatisch archiviert

    Diese Behauptung wurde hier ohne Begründung durch Benutzer:Cirdan eingefügt. Meine Entfernung wurde mehrfach zurückgesetzt (z.B. mit der Begründung „Man kann sich auch lächerlich machen...“). --Succu (Diskussion) 23:12, 11. Aug. 2017 (CEST)

    Ja. Ich habe dir jetzt zwei Links dazugepackt und kann gerne auch das Internet Archive bitten, dir das hier nochmal zu bestätigen. Du könntest aber auch einfach mal selbst nachschauen. Die lesen wie auch oben geschrieben seit 2013 die Letzten Änderungen für ca. 280 Wikipedia mit und archivieren alle neu eingefügten URLs, wie den meisten Benutzern, die die GiftBot-Meldungen abarbeiten, auch aufgefallen sein dürfte.--Cirdan ± 23:15, 11. Aug. 2017 (CEST)
    Siehe auch diesen Kommentar von Wendy Hanamura: „For 3 years we have been crawling ALL Wikipedia links in every language. We at Internet Archive would next really like to work with other Wikipedia groups to have similar bots replacing dead links. Looking for partners to work with us!“--Cirdan ± 23:21, 11. Aug. 2017 (CEST)
    (BK): Zitat aus Wikipedia community and Internet Archive partner to fix one million broken links on Wikipedia: „This has been done by the Internet Archive’s monitoring for all new, and edited, outbound links from English Wikipedia for three years and archiving them soon after changes are made to articles.“ Da steht nicht das dies für alle Wikipedias (z.B. ceb, zh, …) zutrifft. --Succu (Diskussion) 23:24, 11. Aug. 2017 (CEST)
    „So, what is next for this collaboration between Wikipedia and the Internet Archive? Well… there are nearly 300 Wikipedia language editions to rid of broken links. And, we are exploring ways to help make links added to Wikipedia self-healing. It’s a big job and we could use help.“ --Succu (Diskussion) 23:34, 11. Aug. 2017 (CEST) PS: Wendy Hanamura, Director of Partnerships
    Cirdan hat weiter oben ja auch ein Beispiel aus der Praxis angeführt: Sechs Minuten nach dieser Änderung war die Seite im Internet Archive gespeichert. Ausserdem schreibt er: „Dass dieser Service schon länger funktioniert, sieht man auch daram, dass der letzte GiftBot-Lauf erstaunlich häufig Archivversionen zu genau dem Tag hervorgebracht hat, an dem der Einzelnachweis gesetzt wurde.“ Kann also sein, dass die automatische Archivierung in der deutschen Wikipedia noch nicht 2013 angefangen hat, aber wohl doch schon vor dem letzten GiftBot-Lauf (November 2015 – Januar 2016). Gestumblindi 23:37, 11. Aug. 2017 (CEST)
    Ich habe gestern und heute mit Wendy und Mark vom Internet Archive persönlich gesprochen, ich denke mir das also nicht aus. Dass die Links automatisch gecrawlt werden ist schon länger so, das sollte allgemein bekannt sein, ist es aber offenbar nicht. Was seit 2013 passiert, ist das automatische Speichern von hinzugefügten URLs praktisch aller Wikipedia-Sprachversionen. Wie lange die de-wp ganz genau dabei ist, weiß ich nicht, aber der Service läuft für 280+ Wikipedias und man kann es recht einfach testen, indem man einfach mal URLs einfügt und dann schaut, ob die Wayback Machine etwas später einen Snapshot dazu hat.
    Was noch nicht alle Wikipedias haben, sondern bisher erst sechs oder sieben, ist ein Service, dass die archivierten Seiten in der Wikipedia verlinkt werden (über den IABot eben). Ungefähr die gleiche Anzahl Wikipedias hat der Botnutzung schon zugestimmt, von den großen Projekten ausstehend sind noch die französische und eben die deutsche Wikipedia.--Cirdan ± 23:47, 11. Aug. 2017 (CEST)
    Weitere Beispiele Archivierung getriggert von hier. Am 15. April habe ich den Artikel Philip Banse mit Weblink angelegt, Wayback hat ein paar Stunden später einen Snapshot. Man erkennt übrigens auch, dass das getriggert wurde, sehe ich gerade: Die Snapshots sind mit NO404-WKP markiert. Dazu mit der Maus das Datum anklicken, dann erscheint oben unter der Übersichtsleiste eine Zeile, wo das vermerkt ist.--Cirdan ± 23:59, 11. Aug. 2017 (CEST)
    Beide Beispiele stammen aus diesem Jahr. Für die obige Behauptung (gilt für deWP) gibt es außer einer mündlichen Information an Cirdan keinen Beleg. Damit ist der Zusatz für mich nach wie vor irreführend. --Succu (Diskussion) 23:05, 12. Aug. 2017 (CEST)
    Das hier ist ein MB, kein Wikipedia-Artikel. Ich akzeptiere hier auch informell belegte Hintergrundinfos, wenn sie plausibel sind, und sehe aktuell keinen Anlass, an Cirdans Angaben zu zweifeln. Gestumblindi 23:24, 12. Aug. 2017 (CEST)
    Bei einer Meinungsbildung kommt es also deiner Meinung nach nicht so darauf an die Fakten klarzustellen...? Du bist immerhin der Initiator des MB. --Succu (Diskussion) 23:51, 12. Aug. 2017 (CEST)
    Theoretisch offen (wenn man Cirdan nicht glauben will) ist ja sowieso nur noch die Frage, ob „seit 2013“ stimmt oder ob mit der automatischen Speicherung erst 2014/2015 begonnen wurde. Dass sie aktuell stattfindet, ist ja leicht nachzuvollziehen, und dass sie schon vor dem letzten GiftBot-Lauf begonnen haben muss, ist angesichts der Resultate auch plausibel. Gestumblindi 00:07, 13. Aug. 2017 (CEST)
    @Succu: Du kannst, wie oben verlinkt, auf dieser Website alle Crawl-Daten runterladen. Der erste Eintrag ist von 2013-09-21, wenn ich das richtig sortiert habe. Du kannst in den Daten nachvollziehen, welche URLs archiviert wurden, weil sie in die Wikipedia eingefügt wurden. Wenn es dich also so im Detail interessiert, kannst du in den Datensätzen minutiös die Arbeit des Internet-Archive-Crawlers nachvollziehen. Ich kann sehr gerne auch ein Statement des Internet Archive dazu einholen. Ich sehe allerdings bisher keinen Grund, daran zu zweifeln, was zum Beispiel Wendy Hanamura unter den WMF-Blogbeitrag geschrieben hat und was sie und der Direktor der Wayback-Machine Mark Graham sowohl in ihrem Vortrag (der demnächst auch als Videomitschnitt online stehen wird), als auch in persönlichen Gesprächen mit Community-Mitgliedern und Mitarbeitern von Wikimedia Deutschland (Anlass dazu war dieser Wunsch) gesagt haben. Zumal die Tatsache, dass diese Speicherungen passieren, wohl kaum überraschend ist, schließlich ist das technisch nicht besonders kompliziert umzusetzen, sondern geradezu naheliegend trivial.--Cirdan ± 00:15, 13. Aug. 2017 (CEST)
    Also wenn ich dich richtig verstehe solle ich in Internet Archive crawldata from feed-driven Wikipedia Outlinks Crawl, captured by crawl345.us.archive.org:no404 from Wed Oct 30 21:19:56 PDT 2013 to Wed Oct 30 15:58:29 PDT 2013. nachsehen, ob Links dabei sind, die auch in deWP verwendet wurden? --Succu (Diskussion) 23:40, 13. Aug. 2017 (CEST)
    @Succu: Das kannst du machen, dann könntest du auch überprüfen, ob das Internet Archive wirklich jeden Tag alles archiviert hat. Den Aussagen der Mitarbeiter ist ja nicht zu trauen. Ich war aber so freundlich, die unglaublich komplizierte Aufgabe zu übernehmen, Beispiellinks rauszusuchen, die ich im Abschnitt eins untendrunter verlinkt habe.--Cirdan ± 23:45, 13. Aug. 2017 (CEST)

    Finde ich besorgniserregend. Siehe oben, Wikipedia Diskussion:Meinungsbilder/Boteinsatz bei toten Links#Monokultur.--Mautpreller (Diskussion) 00:13, 12. Aug. 2017 (CEST)

    Ich habe neulich irgenwo gelesen, dass WebCite automatisch und aktiv von Wikipedia beschickt wird. Ich glaube, das war in der enWP. Der IABot kann auch mit deren Links (insgesamt rund 20 Archivdiensten: siehe oben) beschickt werden. --Martina Disk. 00:40, 12. Aug. 2017 (CEST)
    @Mautpreller: Es steht jedem Archivanbieter frei, das auch zu tun, die IRC-Channels mit den letzten Änderungen stehen offen zur Verfügung und werden von zahlreichen Bots gelesen. Ich würde es natürlich sehr begrüßen, wenn andere Archive dem Beispiel des Internet Archive folgen bzw. Wikipedianer entsprechende Services auf Labs einrichten.--Cirdan ± 01:01, 12. Aug. 2017 (CEST)
    Das wäre eher noch schlimmer.--Mautpreller (Diskussion) 11:47, 12. Aug. 2017 (CEST)
    @Mautpreller: Ich würde gerne deine Position besser verstehen. Angenommen – und diesen Vorschlag gab es ja hin und wieder – ich gründe eine Bibliothek, deren Aufgabe es ist, sämtliche in der deutschsprachigen Wikipedia als Beleg genutzte Literatur zu sammeln und zu konservieren, so dass alle Einzelnachweise und Literaturangaben dauerhaft geprüft werden können. Würdest du das (unabhängig von der realistischen Umsetzbarkeit) befürworten? Falls ja, worin besteht dort für dich der Unterschied gegenüber der Arbeit des Internet Archive, die zumindest alle bei uns als Beleg genutzten Websites archivieren? Falls nein, könntest du konkret benennen, was aus deiner Perspektive gegen diese Art der Konservierung von Belegen(?) spricht? (Die Frage, ob und wie diese konservierten Belege aus der Wikipedia erreichbar sein sollen, spielt zunächst keine Rolle, wir diskutieren hier ja nur die Konservierung an sich.)--Cirdan ± 15:48, 12. Aug. 2017 (CEST)
    Ganz unabhängig von der Nutzung lässt sich das nicht darstellen. Aber ich versuchs mal. - Eine Bibliothek, die alle von der Wikipedia als Beleg genutzte Literatur sammelt, wäre ein Ding der Unmöglichkeit. Als spekulative Idee hätte das Vorteile im Handling, weil man nicht auf Bibliotheksbenutzung angewiesen wäre, praktisch wäre so ein Unterfangen Ausdruck extremer Hybris. Auch da ergibt sich jedoch ein Problem: Sind die Exemplare, die in dieser Wikipedia-Bibliothek gesammelt sind, tatsächlich die „richtigen“ Vertreter? Nicht alle Varianten einer gedruckten Quelle sind gleich (Textvarianten, Fehler usw.), und vor allem finden sich die Quellen im Allgemeinen in einem konkreten, physischen Zusammenhang, der durch auszugsweise Repräsentation zerstört wird. Es ist gut und nicht schlecht, dass man sich schon um die zahlreichen auf der Welt vorhandenen physischen (und elektronischen) Sammlungen bemühen muss, die ganz unabhängig von der Wikipedia angelegt wurden. So hat man nämlich tatsächlich unabhängiges Material als Grundlage, nicht für unsere Bedürfnisse zugeschnitten, sondern präexistent. So kann ein echter Abgleich funktionieren.
    Hier geht es jedoch um etwas anderes. Es geht um Websites. Das sind ebenfalls Veröffentlichungen, jedoch von anderer Materialität. Sie können heute so und morgen so lauten, sie sind fluide. Oft werden sie schon nicht ultrasolide angelegt, weil man sie leicht ändern kann (und das gilt auch für Scans gedruckter Literatur, wie ich nicht nur einmal erlebt habe). Sie enthalten oft Fehler, die (nach einer Abmahnung, einem Rechtsstreit, einer Aktualisierung usw.) stillschweigend korrigiert werden (oder erst neu reingebracht werden). Man könnte nun sagen, hätte man eine lückenlose Bibliothek all dieser Websites in all ihren wechselnden Zuständen, dann könnte man diese Fluidität perfekt abbilden. Praktisch stimmt das aus mehreren Gründen nicht. Erstens kann sie nicht lückenlos sein und ist es auch nicht. Zweitens kann sie nicht wirklich ausgewertet werden, weil die zu treffenden Entscheidungen immer willkürlich bleiben müssen. Drittens aber entsteht diese „Bibliothek“ überhaupt nicht unabhängig, sondern auf unsere Bedürfnisse zugeschnitten. Wer einen Weblink als Beleg verwendet, verewigt damit selbst den momentanen Zustand der Website. Das ist nicht so wie bei einer Bibliothek, die ihre Sammelgebiete unabhängig von uns verfolgt, die Auswahl geschieht nach dem, was wir tun. Die Unabhängigkeit der Quellen von der Wikipedia ist massiv gestört.
    Das mag alles recht theoretisch klingen, praktisch sieht es jedoch nach meinem Eindruck viel bedrohlicher aus. Das liegt an zwei Dingen. Sooft auch betont wird, dass gedruckte Literatur zu bevorzugen wäre, Weblinks sind sehr viel praktischer. Man muss sich nicht einlesen und kann per Googlesuche Splitter zusammensuchen. Vor allem hat man einen „Beleg“, der auch RC-Leuten und Sichtern zur Verfügung steht; die Chance, dass man nicht revertiert wird, ist viel größer. Eine echte Überprüfung im Kontext wird da meist nicht geleistet. Sehr viele Artikel bei uns sind deswegen so schlecht, weil sie sich auf zusammengegooglete Weblinks verlassen, obwohl Literatur vorhanden ist (die man freilich lesen und nicht nur durchsuchen müsste). Es gibt mittlerweile genügend Leute, die ernsthaft glauben, dass die Wikipedia sich nur auf Onlinequellen aufbaue und das auch richtig sei. Dramatischer ist aber das zweite Merkmal: Das InternetArchive sammelt ja diese Versionen nicht nur, es veröffentlicht sie. Wenn wir diese Links nutzen, wird eine Website plötzlich in einem beliebigen willkürlichen Zustand zu einer extrem breit rezipierten Veröffentlichung, völlig unkontrolliert und ohne jeden Blick auf Urheber- und Persönlichkeitsrechte, auch ohne jeden Blick auf Korrektheit. Mag sein, einen Tag später ist die Seite vom Netz genommen worden, weil ihr Inhalt falsch war – tut nichts, unser Bot veröffentlicht sie für die Ewigkeit!
    Und jetzt der Bogen zur Monokultur. Hier schreiben wir etwas auf einer der meistgenutzten Webseiten der Welt. Wir legen einen Weblink als Beleg, weil das so schnell geht und unmittelbar überzeugend wirkt. Der Link verschwindet irgendwann, aber das InternetArchive hat ihn gesichert, weil er ja bei uns als Beleg genutzt wurde. Veränderungen der verlinkten Website (die ja sehr gute Gründe haben könnten) werden an dieser Stelle gar nicht mehr registriert, es ist ja der Archivlink da. Die „belegte“ Stelle findet über Wikidata, Übersetzungstools und diverse Mirrors in alle möglichen anderen Netze Eingang. Neue Veröffentlichungen (print oder online) finden die Behauptung nun überall im Netz, vielleicht sogar in Bibliotheksdatenbanken, die wiederum von Wikidata gespeist werden, und nehmen die Richtigkeit an. Sie werden wiederum zitiert. Auf einer äußerst schmalen empirischen Basis ist eine weltweit genutzte und akzeptierte Tatsache entstanden. Da dieses Basis aber so schmal ist, kann es sehr gut sein, dass sie schlicht falsch ist. Ein Abgleich mit den unabhängigen Beständen wäre unbedingt erforderlich, aber er wird nicht geschehen. Das Problem ist, dass man sich, und diese bereits vorhandene Tendenz wird durch die ganze InternetArchive-IABot-Geschichte verstärkt, in einer Art Inzucht bewegt. Es kommt einfach nichts mehr dazu, die Wikipedia-Welt wird gegenüber der wikipedia-unabhängigen Welt dominant und schiebt sich vor sie.
    Die einzige Möglichkeit, die ich sehe, um dieser Tendenz entgegenzuwirken, ist „slowing down“. Jede Schnittstelle von Netz zu Netz bedarf menschlicher Prüfung und Entscheidung und muss vom leser nachvollzogen werden können. Das geht langsamer, aber nur so wird der Unabhängigkeit der div. Datensammlungen Genüge getan. Es ist zweifellos so, dass es „bürokratische“ Abläufe gibt, die ebenfalls einer menschlichen Prüfung im Wege stehen können und an denen man deshalb arbeiten muss. Aber die Parallelwelt, die durch die automatisierte Einspeisung entsteht, ist bedrohlicher, weil sie prinzipiell eine solche Prüfung gar nicht mehr braucht und vorsieht.--Mautpreller (Diskussion) 16:38, 12. Aug. 2017 (CEST)
    Vielen Dank für die ausführliche Darstellung. Ich denke, ich verstehe deine Position jetzt wesentlich besser.--Cirdan ± 17:34, 12. Aug. 2017 (CEST)
    Die Kehrseite der Medaille „Web im Fluss vs. künstlich-statischer Archivlink“, Mautpreller, gibt es aber auch: Sehr häufig (meiner Erfahrung nach: meistens!) verschwinden Inhalte von Websites nicht etwa weil sie falsch oder gar illegal gewesen wären, sondern im Zuge von Umstrukturierungen. Organisationen, Behörden, Firmen setzen nach ein paar Jahren ihre Website gerne mal komplett neu auf und plötzlich sind alte Medienmitteilungen, Protokolle, Jahresberichte etc. einfach unter den Tisch gefallen – „ist nicht mehr wichtig, das Zeug ist zehn Jahre alt, unsere frische neue Website soll vorstellen, was wir gerade machen“... wir aber brauchen das „alte Zeug“, um Entwicklungen dieser letzten zehn Jahre zu belegen. Ebenfalls zur Kehrseite gehören Fälle, in denen Inhalte entfernt werden, weil sie nicht mehr zum Selbstbild einer Körperschaft passen – absolut korrekte Inhalte, die wir nicht mehr sehen sollen, die unterdrückt werden sollen. Ein dramatisches aktuelles Beispiel findet sich ja in den USA. Du hast sicher auch davon gehört, hier einer der vielen Artikel zum Thema: „Forscher fürchten Zensur und Eingriffe der US-Regierung. Eine Professorin versucht nun, sensible Daten in Sicherheit zu bringen – bevor es zu spät ist. (…) Gespeichert werden die Daten entweder im Internet Archive, einer seit 1996 bestehenden gemeinnützigen Online-Bibliothek, oder in der neu eingerichteten Datenbank datarefuge.org.“ Das ist sicher auch nicht das einzige Land, in dem nach einem Regierungswechsel und damit verbundener Neugestaltung offizieller Websites relevante Inhalte verschwinden, selbst wenn es nicht einmal darum gehen sollte, irgendwas zu unterdrücken – sondern „nur“ um den frischen Auftritt mit den Inhalten, die man nun der Öffentlichkeit präsentieren möchte.
    Die Frage ist nun, was das kleinere Übel ist. Für dich ist offenbar klar: Wir können, ja müssen Hunderttausende von defekten Weblinks permanent in Kauf nehmen, um der Gefahr entgegenzuwirken, dass zweifelhafte oder falsche Behauptungen durch Archivlinks zementiert werden. Defekte Links in einem Artikel sind nach dieser Auffassung gar nicht schlecht, sondern zeigen unserer Leserschaft, dass der Artikel auf Angaben basiert, die sich zumindest unter dieser Adresse aktuell nicht mehr im Web finden, und diese wird dadurch im Idealfall zu eigenen Recherchen und Überprüfung der Inhalte angeregt – ja? Nun, das kann man so sehen. Auch ich kann diese Position nachvollziehen – aber ich teile sie nicht, immer noch nicht. Insbesondere dann nicht, wenn es darum geht, einen defekten Link durch das Angebot eines Archivlinks zu ergänzen, nicht ihn zu ersetzen. Wenn man nur ergänzt, kaschiert man die Tatsache, dass ein Link eigentlich defekt ist und die Inhalte veraltet sein könnten, m.E. nicht zu sehr. Ich sehe die möglichen negativen Auswirkungen von Archivlinks nicht so dramatisch. Man kann ja immer nachvollziehen, dass es sich um einen Archivlink handelt und auf welchen Stand sich der Artikeltext bezieht. Ist die Information falsch, kann sie korrigiert und der Link durch einen geeigneten Beleg ersetzt werden – Archiv hin oder her.
    Du schreibst Die „belegte“ Stelle findet über Wikidata, Übersetzungstools und diverse Mirrors in alle möglichen anderen Netze Eingang. Neue Veröffentlichungen (print oder online) finden die Behauptung nun überall im Netz, vielleicht sogar in Bibliotheksdatenbanken, die wiederum von Wikidata gespeist werden, und nehmen die Richtigkeit an. – das trifft alles auch auf Stellen mit defekten oder gar keinen Belegen zu. Wikipedia-Inhalte werden doch typischerweise breit übernommen, ohne dass ihre Belege überprüft würden. Leider. Ich glaube nicht, dass es diesbezüglich einen grossen Unterschied macht, ob man nun einen Archivlink setzt oder nicht. Der Archivlink hat dabei immerhin den Vorteil, dass man nachvollziehen kann, woher mit welchem Stand die Information kam, und zumindest bestätigt werden kann: „ja, am 30. Juli 2009 stand wirklich das Zitierte auf dieser Website“. - Da die meisten defekten Weblinks, die ich antreffe, wie gesagt eher in die Kategorie „einer Umstrukturierung zum Opfer gefallen“ gehören, sehe ich es als das kleinere Übel an, in einem prozentual wohl sehr geringen Teil der Artikel Belege mit falschen Inhalten vorerst zu „konservieren“. Aktuell würde ich, wenn das MB jetzt starten würde, für Vorschlag 1 stimmen. Gestumblindi 20:33, 12. Aug. 2017 (CEST)
    Ja klar gibt es das. In manchen solcher Fälle können Archivlinks daher nützlich sein, wenn ich auch bislang nur wenige Einzelfälle kenne. Bloß können sie eben auch schädlich sein. Deswegen, mein Credo, sollten sie nie automatisiert gesetzt werden, zumindest nicht im Artikelnamensraum, sondern immer nur nach verantwortlicher Abwägung. Ich denke mit Schaudern daran, welche Probleme wir uns beispielsweise mit dem hier beschriebenen Thema einhandeln könnten. Nicht dass diese Probleme völlig vermeidbar wären, aber sie nehmen eine ganz andere Form an, wenn ein Archivlink automatisch in den Artikel gepackt wird. Menschliche Abwägung braucht Zeit, und die sollten wir uns nehmen und uns nicht von horrenden Toter-Link-Zahlen ins Bockshorn jagen lassen.--Mautpreller (Diskussion) 20:58, 12. Aug. 2017 (CEST)
    PS: Du sagst: „Ist die Information falsch, kann sie korrigiert und der Link durch einen geeigneten Beleg ersetzt werden.“ Ja, das stimmt ohne Frage. Man kann auch die Botmeldung einfach aus dem Artikel entfernen. Aber wird das jemand tun? Wird jemand gar die Information auf Korrektheit überprüfen? Schließlich heißt es doch, die manuelle Bearbeitung der Weblinks überschreite unsere Kapazitäten? Ich glaube nicht, dass das geschehen wird. Der Beleg ist ja da. Solche Botbearbeitungen werden auf Dauer stehen bleiben.--Mautpreller (Diskussion) 21:05, 12. Aug. 2017 (CEST)
    @Mautpreller: Du setzt voraus, dass die Wahrscheinlichkeit, dass eine Information falsch war oder aus anderen Gründen nicht mehr in unseren Artikel gehört, im Falle von Archivlinks höher ist als bei solchen, die immer noch „live“ im Web verfügbar sind. Tatsächlich wimmelt es aber im Web von falschen oder veralteten Angaben, die seit vielen Jahren unverändert online herumgammeln, nicht aktualisierten „Zombie-Sites“ und dergleichen. Und es wimmelt von korrekten, immer noch relevanten Angaben, die aufgrund einer Umstrukturierung oder Einstellung eines Online-Angebotes nur noch über Archivlinks abrufbar sind. Nicht mein „Credo“ (ich bin in solchen Dingen nicht tiefgläubig), aber meine Ansicht ist, dass das automatisierte Anbieten von Archiv- zusätzlich zu den defekten Originallinks in der weit überwiegenden Zahl der Fälle gegenüber dem Status „gar kein funktionierender Link“ eine Verbesserung darstellen würde. So kann man wenigstens einfach überprüfen, ob unter diesem Link überhaupt jemals die Information zu finden war, die eine Behauptung im Artikel belegen soll (oft genug kommt es ja auch vor, dass ein Link von Anfang an überhaupt nicht als Beleg geeignet ist). Ja, man braucht deine Argumentation sogar nur leicht zu adaptieren, um zu einem gegenteiligen Schluss zu gelangen, indem man sagt: Ein toter Link erweckt beim Leser, der ihm nicht mehr folgen kann, den Eindruck „Das ist eine belegte Information, leider kann ich den Link nicht mehr aufrufen, aber das muss mal da gestanden haben“, selbst wenn das nie der Fall war. Bietet man ihm hingegen einen Archivlink an, besteht eine gewisse Wahrscheinlichkeit, dass er diesem auch folgt und sich anschaut, ob die behaupteten Inhalte wirklich vorhanden sind/waren. Letztlich vermute ich allerdings, dass die meisten LeserInnen im Alltag die Einzelnachweise überhaupt nicht beachten, und wenn, dann sehr oberflächlich: „ahja, viele Belege, schön“, ohne irgendwelchen Links zu folgen oder gedruckte Literaturstellen nachzuschlagen. Auch ich mache das nur, wenn ich mich gerade vertieft mit einem Thema befasse oder mir etwas sehr erstaunlich oder unglaubwürdig vorkommt. Gestumblindi 22:15, 12. Aug. 2017 (CEST)
    Letztlich habe ich den Eindruck, dass Du genau wie ich glaubst: Diese Botbearbeitungen werden auf Dauer stehen bleiben. Wir kriegen eine riesige Menge von Archivlinks automatisch in den ANR gespült, deren größten Teil niemand überprüfen wird. Nur glaubst Du, in der Mehrzahl der Fälle werden die schon in Ordnung sein und die Ausreißer könne man tolerieren.--Mautpreller (Diskussion) 22:30, 12. Aug. 2017 (CEST)
    Ja, das ist tatsächlich meine Ansicht. Keine Verschlechterung gegenüber dem aktuellen Zustand (unverändert richtige oder falsche Information in der Wikipedia mit totem Link, die – falls nötig – auch erst korrigiert wird, wenn jemand den Link aktiv überprüft). Und man kann wenigstens... ach, ich will mich nicht wiederholen. Gestumblindi 22:42, 12. Aug. 2017 (CEST)
    Wir sollten einen Bot laufen lassen, der alle Archivlinks löscht, samt allen damit belegten Inhalten und zugleich sollte der Archivbot seine Seiten löschen. Dann wäre die Menschheit dazu gezwungen die Information neu zu suchen und mit einem aktuellen Link in den Artikel zu schreiben oder wir müssten auf die Information ganz verzichten. Auf diese Weise ist sichergestellt, dass nichts Veraltetes weitertradiert wird. Die Autoren und die Leser wird das sicherlich freuen.--18:22, 12. Sep. 2017 (CEST)

    Archivierungen seit 2013

    Benutzer:Cirdan, Succu: Können wir uns darauf einigen, dass umstrittende Inhalte hier auf der Disk. besprochen werden. Ich dachte, ich hätte mit meiner Verschiebung einen Kompromiss angeboten, ihr scheint euch da aber immer noch weiter zu behakeln. Wo genau besteht die Differenz zwischen euch? --Martina Disk. 03:42, 13. Aug. 2017 (CEST)

    Ich hab hier nochmal die Formulierung nachjustiert. Es werden ja nicht Links gespeichert, sondern die Webseiten, zu denen wir Links setzen. 2013 hat das automatische Speichern begonnen, aber da wir nicht wissen, seit wann genau dies für die deutschsprachige Wikipedia gemacht wird, hab ich das in „mittlerweile“ umformuliert. Wichtig ist mir an dieser Stelle auch, deutlich zu machen, dass dies offenbar schon seit Jahren gemacht wird, wir diese Archivlinks aber bislang händisch einpflegen. --Martina Disk. 04:19, 13. Aug. 2017 (CEST)
    @Martina Nolte: Danke für die weitere Verbesserung! Ich werde morgen nochmal explizit erfragen, seit wann das für die deutschsprachige Wikipedia gemacht wird.--Cirdan ± 05:25, 13. Aug. 2017 (CEST)
    Klasse, danke! Ich fände (aus reiner Neugier) auch spannend zu erfahren, ob Wikimedia und Internet Archive schon länger hierzu kooperieren. --Martina Disk. 05:35, 13. Aug. 2017 (CEST)
    Nein, eine formale Kooperation gibt es nicht. WMDE ist aus allen Wolken gefallen (vgl. Wikipedia:Umfragen/Technische Wünsche 2017/Wartung#Automatisches speichern des Inhalts externer Links ins Internet Archive (archive.org)) und zur WMF bestand bisher nur loser Kontakt, obwohl beide in San Francisco sitzen. Das soll sich aber ändern. Sobald der Wikimania-Talk als Video verfügbar ist, verlinke ich ihn.--Cirdan ± 14:27, 13. Aug. 2017 (CEST)
    Also ist die Behauptung auch für deWP geschähe dies seit 2013 falsch? Übrigens habe ich bei meinen Korrekturen defekter Weblinks nie den bestehenden Link zum IA aufgegriffen, denn in fast allen Fällen handelte es sich lediglich um eine geänderte URL, die zum identischen (manchmal „aufgehübschten“) Inhalt führte. Die anderen Fälle waren entbehrliche Weblinks. --Succu (Diskussion) 23:03, 13. Aug. 2017 (CEST)
    Mich würden mal Beispiele interessieren, bei denen ein Archivlink nützlich und angebracht ist. In den von mir beobachteten Artikeln habe ich ein (1) Beispiel dafür gefunden.--Mautpreller (Diskussion) 23:08, 13. Aug. 2017 (CEST)
    (BK) Nein, warum sollte die Aussage, das geschehe seit 2013, falsch sein? Die Archivierung läuft, wie ich dir nun mehrfach verlinkt habe, seit 2013 und das lässt sich wie beschrieben auf verschiedenste Weise nachvollziehen.--Cirdan ± 23:10, 13. Aug. 2017 (CEST)
    Nur schließen deine unverbindlichen Antworten nie explizit deWP ein. BTW: du wolltest es erfragen... --Succu (Diskussion) 23:12, 13. Aug. 2017 (CEST)
    Entschuldige bitte, aber liest du meine Links überhaupt? Sie archivieren seit 2013 praktisch für alle relevanten Wikipedia-Sprachversionen. Das sage ich schon seitdem ich mich hier eingeklinkt aber, aber dir scheinen weder meine Aussage, noch meine Links, noch die Server-Logs(!), noch die Markierungen in den Snapshots(!) dafür zu genügen. Wenn es dich so brennend interessiert, schreib doch bitte einfach an mark@archive.org und frag den Chef des ganzen persönlich.--Cirdan ± 23:15, 13. Aug. 2017 (CEST)
    „für alle relevanten Wikipedia-Sprachversionen“? Wenn das so ist dann verlinke doch bitte noch mal für mich Deppen auf diese Liste. Danke --Succu (Diskussion) 23:21, 13. Aug. 2017 (CEST)
    Weil es so unglaublich schwierig ist: Wikipedia Near Real Time (from IRC) archivierter Link von 2014 (gefunden über Diskussion:11 Freunde#Defekte Weblinks). Und voila, hier ein per Wikipedia Near Real Time (from IRC) archivierter Link von 2013 (gefunden über Diskussion:3D-Druck#Defekte Weblinks). Einfach oben rechts auf „About this capture“ klicken. Und wie gesagt, sie machen das für 280 Sprachversionen, diese Info habe ich aus erster Hand, das kannst du demnächst auch im Wikimania-Video nachvollziehen (oder einfach Mark eine E-Mail schreiben). Überzeugt dich das jetzt, dass ich hier keine Verschwörungstheorien verbreite?--Cirdan ± 23:22, 13. Aug. 2017 (CEST)
    (BK) Um den Link auf Realisierung keramischer Prototyping mittels 3D-Druck und Heißgießen zu fixen brauchts keinen Archivlink. Simples Suchen im Web genügt. Verschwörungstheorie? Ehrlich? Und ich benötige auch keine Anleitung zur Selbsthilfe. Ich finde es nur befremdlich, das es seitens des IA keinen Blog-Eintrag o.ä. gibt wo man das „offiziell“ 2003/14 nachlesen kann. Wir sollen uns statt dessen auf dein Wort und auf einen gerade abgehaltenen Wikimania 2017 Beitrag verlassen. Sorry das ich skeptisch bleibe. --Succu (Diskussion) 00:08, 14. Aug. 2017 (CEST)
    @Succu: „Simples Suchen im Web genügt“ – ja, das stimmt natürlich sehr oft. Für viele tote Weblinks lässt sich ohne grosse Probleme brauchbarer Ersatz finden, ohne dass man ein Webarchiv bemühen müsste. Nur muss das eben auch jemand machen. Für Hunderttausende, vielleicht fast eine Million defekter Weblinks in unseren Artikeln hat die hiesige Community aber nicht die nötige Kapazität. Es werden immer mehr. Und das ist der Ausgangspunkt dieses Meinungsbildes: Wenn wir Menschen mit dem Korrigieren nicht nachkommen, kann ein Bot mit Archivlinks das Problem wenigstens lindern. Sicher, manchmal wäre ein „live-Link“ besser als ein Archivlink. Manchmal ist aber auch der Archivlink besser (wenn sich der Artikelinhalt auf einen bestimmten Inhalt, wie er zum Zeitpunkt der Archivierung vorlag, bezieht). Auf jeden Fall hindern Archivlinks niemanden daran, Artikel, Einzelnachweise und zugehörige Weblinks hochwertig manuell zu aktualisieren – stellen aber in der Zwischenzeit, bis das vielleicht nach Jahren tatsächlich mal jemand macht, die Nachvollziehbarkeit sicher. Gestumblindi 00:34, 14. Aug. 2017 (CEST)
    @Succu: Wie sinnig oder unsinnig dieser Archivlink ist, ist hier nicht die Frage. Ich werde mir ganz bestimmt nicht die Mühe machen, ausschließlich enzyklopädisch sinnvolle Beispiele dafür zu präsentieren, dass das Internet Archive seit 2013 alles archiviert. Denn schließlich archivieren sie, auch wenn du das hier mit immer neuen Begründungen anzweifelst, alles, was wir hier verlinken.
    Ich bin ehrlich gesagt völlig ratlos, was du noch alles sehen willst, um überzeugt zu sein, dass meine Aussagen hier und die Aussagen der IA-Mitarbeiter unter dem WMF-Blogpost stimmen. Du hast die Server-Logs, ich habe dir Beispiele präsentiert (bei denen explizit dabei steht, dass es sich um automatische Archivierungen handelt! Du kannst problemlos tausende Weitere finden, indem du einfach so wie ich zufällig Seiten aus Kategorie:Wikipedia:Defekte Weblinks/Bot auswählst), du hast die E-Mail-Adresse des Direktors der Wayback-Machine, mit Cyberpower liest hier der vom IA unterstützte Bot-Betreiber mit, WMDE hat exakt die selben Informationen vom IA erhalten (vgl. hier), die Software-Lösung ist trivial – und es gibt bisher überhaupt gar keinen einzigen Hinweis darauf, dass daran zu zweifeln wäre, dass das IA seit 2013 automatisch archiviert. Warum sollte ich hier falsche Dinge behaupten? Ich werde daher meine Bemühungen einstellen, dich überzeugen zu wollen.--Cirdan ± 03:54, 14. Aug. 2017 (CEST)
    Suchen im Web funktioniert, wenn man weiß wonach man suchen soll. Ja, dank Webarchiv kann man den Inhalt welcher irgendwas belegen soll nachlesen und dann kann man eine neue Adresse auf der Webseite suchen. Nur wenn ich den Link aus dem Webarchive schon hab, warum soll ich dann nach einer Alternative suchen? Das wäre ja doppelte Arbeit. Sowas kann ich machen wenn sich die Struktur einer Webseite ändert und ich viele hundert Links nach dem gleichen Schema hab, aber nicht bei Einzelnachweisen die auf selten verlinkte Seiten verweisen. --Wurgl (Diskussion) 23:46, 14. Aug. 2017 (CEST)
    Wenn die Angaben hier vernünftig sind (Titel des Dokumentes ist angegeben) brauche ich das Webarchiv nicht. Sonst, da hast du recht, hilft mir das Webarchiv die korrekte neue Verlinkung zu finden. Hinterher ist der Hilfslink aufs Webarchiv entbehrlich. Und das ist auch gut so. --Succu (Diskussion) 22:03, 15. Aug. 2017 (CEST)

    Gestumblindi: Mir fällt gerade nochmal was auf. Wir gehen die ganze Zeit davon aus, dass ein Archivlink nur bei Bedarf gesetzt wird, also wenn der Originallink nicht mehr aufrufbar ist. Sowohl unsere Vorlagen {{Internetquelle}} und {{Cite web}} als auch der IABot sind aber nutzbar, um Archivlinks sozusagen „vorsorglich“ anzubringen, obwohl der Link noch live ist. Ich würde das eigentlich nicht aus Versehen erlauben wollen. Eigentlich möchte ich das sogar ausdrücklich verbieten. Die massenhafte automatiserte Verlinkung eines externen Anbieters, ohne dass eine Verbesserung des Artikels erreicht wird (weil der Originallink ja noch live ist), halte ich für unzulässig. Was meinst du? --Martina Disk. 07:53, 13. Aug. 2017 (CEST)

    Ich persönlich fände es in einer Reihe von Fällen sogar sinnvoll, sofort Archivlinks (nicht unbedingt nur zum Internet Archive, sondern ganz generell einen Link zu einer archivierten Version irgendeines Anbieters) mit zu speichern. Damit kann immer geprüft werden, welche Informationen zum Zeitpunkt der Verlinkung auf der Website standen, oder ob zwischenzeitlich etwa Zahlen aktualisiert wurden. Diese Links müssen ja dem Leser nicht angezeigt werden, aber man könnte direkt den Archivlink hinterlegen und würde sich damit die Arbeit sparen, später immer wieder alle Links auf Erreichbarkeit prüfen zu müssen. Jedenfalls würde ich das nicht im Rahmen dieses MBs explizit verbieten wollen, sondern in einem weiteren Meinungsbild regeln. Schließlich stellt sich dann die Frage, wie wir die verschiedenen Archivanbieter behandeln, denn wir werden wohl kaum mehr als einen Archivlink hinterlegen wollen.
    Mein Vorschlag wäre, hier im erstmal zu klären, ob die Community überhaupt die automatische Ergänzung von Archivlinks bei toten Links möchte. Die Ersetzung von toten Links durch Archivlinks auf Vorschlag des GiftBots oder durch manuelle Suche ist ja bereits gelebte Praxis, dieser Schritt wäre also nicht so groß.--Cirdan ± 18:46, 13. Aug. 2017 (CEST)
    @Martina Nolte: Ich sehe das ähnlich wie Cirdan und denke nicht, dass das ein Thema für dieses Meinungsbild sein sollte. - Auch die „Frage, wie wir die verschiedenen Archivanbieter behandeln“, kann man hier wohl noch nicht klären (die Vorschläge sind ja nicht anbieterspezifisch formuliert), wobei ich ausser WebCite eigentlich gar keine für Wikipedia-Zwecke brauchbare Alternative zum Internet Archive sehe. archive.is sehe ich als ungeeignet an und bin der Ansicht, dass wir auf Links zu diesem eher obskur erscheinenden Anbieter möglichst verzichten sollten, da wir durch die Anonymität seiner Betreiber und die unklare Struktur („ein kleines Team, bestehend aus einigen wenigen Personen“) keine Ahnung haben können, wie es um die Zukunftssicherheit des Angebots bestellt ist. Das Internet Archive hingegen ist wie z.B. auch die Wikimedia Foundation eine gemeinnützige Nonprofit-Organisation nach amerikanischem Recht (en:501(c)(3) organization), als solche etabliert und besteht seit über 20 Jahren. Dass es nicht plötzlich zumachen wird und unzählige tote Archivlinks hinterlässt, kann man somit mit gutem Grund annehmen. Auch WebCite existiert schon seit 20 Jahren und hat als Einrichtung der Universität von Toronto einen seriösen Hintergrund. Kennt ihr neben den genannten noch andere „Archivanbieter“, die in Frage kämen? Gestumblindi 21:31, 13. Aug. 2017 (CEST)
    Okay, lassen wir das also offen (weder ausdrücklich erlaubt, noch ausdrücklich verboten).
    Gestumblindi: Cyberpower hatte oben eine Liste mit 20 Diensten. Die Frage nach den „brauchbaren“ Archivdiensten werden wir mit dem heisigen MB nicht klären, aber an anderer Stelle könnte das mal angegangen werden. ich habe jezt mehrfach Vorbehalte gegen archive.is (Archive Today) wahrgenommen; wir nutzen das im Artikelnamensraum aber nach der Wayback Machine wohl mit Abstand am häufigsten:
    --Martina Disk. 04:57, 15. Aug. 2017 (CEST)
    @Martina Nolte: Viele der Dienste in der Liste oben sind wohl thematisch bzw. geographisch beschränkt und keine universellen Webarchive. Genannt wird da beispielsweise als Nr. 17 nationalarchives.gov.uk – das ist das britische Nationalarchiv, das unter http://www.nationalarchives.gov.uk/webarchive/ die Websites der Regierung des Vereinigten Königreichs archiviert. - Dass wir so viele Links zu archive.is haben, ist m.E. bedenklich, eben aufgrund der Intransparenz und damit völlig unklaren Zukunftssicherheit des Angebots. Keine Ahnung, wie es dazu gekommen ist, dass es so breit berücksichtigt wurde. Man sollte vielleicht mal ein Projekt starten, archive.is-Links möglichst zu ersetzen (durch Live-Links, archive.org, WebCite oder andere seriöse Anbieter). Aber ja, das führt über den Rahmen dieses Meinungsbildes hinaus. Gestumblindi 21:46, 18. Aug. 2017 (CEST)

    De-archivieren im Internet Archive; robots.txt

    @Cyberpower678: ich habe zwei Fragen zur Funktionsweise des Internet Archives:

    • Serverbetreiber können das Archivieren im Internet Archive unterbinden, indem sie in der Datei robots.txt eine entsprechende Anweisung reinschreiben. Wird das auch dann respektiert, wenn eine Archivierung durch einen Link in Wikipedia getriggert wird? Oder nimmt man dann ein größeres Interesse an den Inhalten an, und archiviert trotz des Nichtarchivierungswunsches in der robots.txt?
    • Über die robots.txt kann eine archivierte Version auch einfach wieder aus dem Internet Archive entfernt werden. Möglicherweise gibt es weitere Möglichkeiten für Serverbetreiber, dort Inhalte wieder entfernen zu lassen. Sollte das passieren, bekommt Dein Bot das dann mit und würde er den nun toten Archivlink irgendwann auch wieder aus der Wikipedia entfernen?

    Viele Grüße, MisterSynergy (Diskussion) 00:19, 17. Aug. 2017 (CEST)

    Die erste Frage finde ich an den falschen Adressaten gerichtet und auch eigentlich nicht „unser Bier“. Die zweite Frage ist für uns aber auf jeden Fall relevant! Guter Punkt. Tote Archivlinks haben wir dann ja eventuell schon jetzt. Vielleicht stellt Internet Archive dem IABot eine Liste mit wieder gelöschten Archivversionen zur Verfügung? Eine der möglichen Funktionen des Bots ist aber auch, schon in Artikeln vorhandene Archivlinks zu überprüfen und ggf. zu reparieren (siehe touch_archive und mlmodifyarchive). Ich weiß nicht, ob das auch gelöschte Archivlinks der Wayback Machine beinhaltet. In den Vorschlägen 1 und 2 erlauben wir das Feature bislang nicht. Das wäre – je nach Cyberpowers Antwort – zu überdenken. Bin gespannt. --Martina Disk. 03:37, 17. Aug. 2017 (CEST)
    Die erste Frage ist IMO insofern „unser Bier“, als dass sie lose mit den verschiedenen diskutierten rechtlichen Problemen zusammenhängt. Wenn ein Serverbetreiber es komplett (sogar rückwirkend) selbst in der Hand hätte, eine Nicht-Archivierung über seine Serverkonfiguration zu erwirken, dann liegt es eben auch in seiner Verantwortung, die möglichen rechtlichen Probleme einer Archivierung mit dem IA zu regeln. Wie bereits angemerkt ist die „amerikanische“ opt-out-Methode hier bei uns sicher eher ungewohnt und unbeliebt, aber letztlich ist sie völlig üblich im Internet. Wer seinen Server verantwortungsvoll betreibt, nimmt die Archivierungsaktivitäten übrigens auch zeitnah in Serverlogs wahr und kann reagieren, sofern das für notwendig erachtet wird.
    Ich frage Cyberpower678, weil er mit dem IA zusammenarbeitet und ggf. dort weitere Informationen zum Archivierungsverhalten einholen kann. —MisterSynergy (Diskussion) 08:07, 17. Aug. 2017 (CEST)
    „Rechtliche Probleme“, die „lose zusammenhängen“? Nochmal: Diese Archivdienste sind in den USA als Fair Use legal. Außer robots.txt gibt es ein weiteres „Opt-out“: DMCA-Meldungen. Auch dies ein Standardverfahren in den USA (zunehmend auch in Deutschland bekannt und genutzt). Namentlich Internet Archive ist eine steuerbegünstigte non-profit-Organisation mit namhaften Spendern und staatlichen Fördermitteln. Die Verlinkung zu einem legalen Webangebot ist legal. Abweichende DACH-Rechtsprechung gibt es offensichtlich nicht.
    Bzgl. Infos von IA: If you have any questions or comments regarding these terms and policies or the Archive’s data collection practices, please contact the Archive at info@archive.org or Internet Archive, 300 Funston Ave., San Francisco, CA 94118, phone 415-561-6767--Martina Disk. 03:56, 18. Aug. 2017 (CEST)
    „Wieder gelöschte Archivversionen“ gibt es meines Wissens ausser evtl. nach DMCA-Requests nicht (aber Cyberpower weiss das sicher genauer); ich glaube, dass Websites, die per robots.txt für das Internet Archive gesperrt werden, danach zwar nicht mehr öffentlich im Archiv abrufbar sind, das IA die einmal gespeicherten alten Versionen aber behält und auch wieder zugänglich macht, wenn sich die robots.txt entsprechend ändert. Das ist auch sehr sinnvoll, da Domains ja gelegentlich den Besitzer wechseln – eine Domain kann 2017 einen völlig anderen Besitzer und Inhalt haben als 2007. Wenn nun der neue Besitzer von example.org die ganze Domain für das Internet Archive sperren lässt, sind plötzlich auch die Inhalte von 2007 (mit denen der neue Besitzer der Domain nichts zu tun und an denen er keine Rechte hat), deren Urheber vielleicht gar nichts dagegen hätte, nicht mehr abrufbar. Aber in weiteren zehn Jahren kann es wiederum anders aussehen ;-) Gestumblindi 04:50, 18. Aug. 2017 (CEST)
    • @MisterSynergy: Internet Archives archiviert nicht wenn ein Robots.txt existiert, aber alle Archivs die noch existieren werden NICHT gelöscht sondern nur blockiert. Internet Archives arbeitet an eine nicht so strenges Implementation Robots.txt zu respektieren. Das heisst das Robots.txt blockierte Arkivkopien wieder zugreifbar sind. IABot ist nicht programmiert tote Archivlinks zu entfernen, aber es gibt ein anderen Bot dem die Archivlinks regelmäßig prüfen.—CYBERPOWER (Diskussion) 12:24, 18. Aug. 2017 (CEST)
    Ich werfe hier einfach mal folgenden link ein: Robots.txt meant for search engines don’t work well for web archives. IA wird künftig die Robots.txt mehr und mehr ignorieren. -- Michi 16:43, 18. Aug. 2017 (CEST)
    Aus den von mir oben angetönten Gründen ist das wohl auch sinnvoll. Um aus dem von dir verlinkten Blogbeitrag zu zitieren: We have also seen an upsurge of the use of robots.txt files to remove entire domains from search engines when they transition from a live web site into a parked domain, which has historically also removed the entire domain from view in the Wayback Machine. In other words, a site goes out of business and then the parked domain is “blocked” from search engines and no one can look at the history of that site in the Wayback Machine anymore. We receive inquiries and complaints on these “disappeared” sites almost daily. Gestumblindi 21:13, 18. Aug. 2017 (CEST)
    Danke für die Antworten. Ich habe keinen Zweifel daran, dass das Angebot in den Vereinigten Staaten legal ist, und dass eine Verlinkung von hier zumindest aus rechtlicher Sicht in Ordnung wäre. Wenn Seitenbetreiber weiterhin die Archivierung ihrer Inhalte verhindern können, und so verstehe ich die Antworten hier, dann sollten wir die urheberrechtlichen Bedenken nicht weiter so prominent unter den Kontraargumenten platzieren. Zurzeit ist es das erste, länglich ausgebreitete Argument gegen diese Aktion. Tatsächlich bedeutet das Auftreten von urheberrechtlich bedenklichen Inhalten im Internet Archive letztlich nicht anderes, als dass der Anbieter des archivierten Internetdienstes seine Pflichten vernachlässigt hat und die Weiterverbreitung der Inhalte nicht angemessen unterbindet. Wenn das passiert ist das nicht unsere Schuld, und auch nur sehr eingeschränkt die des Internet Archives (Opt-out ist im Internet nun einmal gang und gäbe, wie allseits bekannt). --MisterSynergy (Diskussion) 23:38, 20. Aug. 2017 (CEST)
    Ich wüsste nicht, was an den Formulierungen in diesem Kontra-Argument falsch wäre.--Mautpreller (Diskussion) 10:28, 21. Aug. 2017 (CEST)
    Ich bezweifle, dass sich die Urheberrechtsproblematik überhaupt als Kontraargument eignet. --MisterSynergy (Diskussion) 12:16, 21. Aug. 2017 (CEST)
    Dann sind wir eben unterschiedlicher Meinung. Ich halte das für ein sehr wichtiges (Kontra-)Argument und Succu scheint das auch so zu sehen. Unter „Pro“ wird bereits jetzt die Auffassung ausgeführt, die Du vertrittst (im selben Umfang übrigens: vier Zeilen). Wer an dem Meinungsbild teilnimmt, sollte doch in der Lage sein, zwei begründete unterschiedliche Auffassungen zur Kenntnis zu nehmen und sie selbst zu bewerten.--Mautpreller (Diskussion) 13:18, 21. Aug. 2017 (CEST)
    Der Abschnitt unter „Kontra“ suggeriert zurzeit, dass Urheber mögliche Verletzungen ihrer Rechte durch diesen fiesen amerikanischen Internetdienst einfach so hinnehmen müssen. Was aber überhaupt nicht stimmt, demnach irreführend ist und keine Basis für ein Argument sein darf. Es reichen ein paar Zeichen in einer Textdatei, und die Veröffentlichung ist unterbunden. Da muss man nicht einmal einen teuren Juristen für engagieren, sondern eine 5-minütige Websuche reicht da völlig aus. Ich halte es außerdem durchaus für sehr wahrscheinlich, dass viele Urheber ihre geschützten Texte dort bewusst archivieren lassen, denn sie erscheinen ja weiterhin in ihrem ursprünglichen Kontext, sie werden nur eben von einem anderen Server ausgeliefert. Dieses „Kontraargument“ gibt meines Erachtens die Situation nicht korrekt wieder. --MisterSynergy (Diskussion) 17:40, 21. Aug. 2017 (CEST)
    Ich kann diese Suggestion nicht erkennen (von einem fiesen Internetdienst war eh nie die Rede). Im Internet Archive werden (unter anderem) Werke veröffentlicht (und zwar auch in DACH), die urheberrechtsgeschützt sind, ohne dass eine Zustimmung des Urhebers vorläge (siehe die oben von Gnom verlinkten Expertisen: das wird, wenn überhaupt jemand was dazu sagt, gewöhnlich als URV betrachtet). Dass der Urheber dagegen einschreiten könnte, ändert daran nichts. Allgemein wird es in der Wikipedia nicht als wünschenswert betrachtet, auf Texte oder Bilder etc. zu verlinken, die urheberrechtsgeschützt sind und ohne Freigabe des Urhebers veröffentlicht werden. Es gibt Ausnahmen, die sollten jedoch begründet und verantwortet werden, und das von Menschen.--Mautpreller (Diskussion) 18:28, 21. Aug. 2017 (CEST)
    „[…]eine 5-minütige Websuche reicht da völlig aus.“ Vollkommen richtig, MisterSynergy! Sie würde aufzeigen, dass mechanisch eingefügte Verweise auf das IA entbehrlich sind. --Succu (Diskussion) 23:24, 21. Aug. 2017 (CEST)

    Ich habe hier Das urheberrechtliche Argument präzisiert. Die Aussage die Archivierungen seien Urheberrechtsverletzungen ist nicht zutreffend. Wir haben das oben umfassend geklärt. Außerdem habe ich die beiden Opt-Outs eingefügt. Und ich habe das WP:BIO-Argument abgetrennt, denn das ist ein anderes Thema als urheberrechtliche Bedenken. --Martina Disk. 15:37, 22. Aug. 2017 (CEST)

    Im Wesentlichen in Ordnung. Zwar ist die Veröffentlichung eines geschützten Werks ohne Genehmigung des Urhebers eine Urheberrechtsverletzung, aber nicht alle archivierten Seiten sind oder enthalten geschützte Werke. Dass Links auf URV nicht automatisiert gesetzt werden sollten, halte ich aber für sehr wichtig und habe es daher wieder ergänzt.--Mautpreller (Diskussion) 15:53, 22. Aug. 2017 (CEST)
    Ich hatte das gar nicht entfernt, sondern du hast das neu eingefügt. Aber sei's drum. Hier nur eine Anmerkung fürs Protokoll. --Martina Disk. 03:16, 23. Aug. 2017 (CEST)
    Das war ein Kollateralschaden bei der Trennung der Punkte Urheberrecht und BIO. Beides sind Argumente dafür, dass man das nicht einem Bot überlassen soll, wegen der Trennung der Punkte stand es nur noch beim zweiten Punkt. Auch nur zu Protokoll.--Mautpreller (Diskussion) 09:57, 23. Aug. 2017 (CEST)

    Auswertung \ Inhaltliche Abstimmung

    Die derzeitige Formulierung „Werden mehrere Vorschläge angenommen, wird jener mit den meisten Pro-Stimmen umgesetzt.“ ist m. E. etwas suboptimal: Mal abgesehen davon, daß nicht die Anzahl der Pros, sondern die Zustimmungsquote wichtiger ist, ergibt sich u. U. folgendes Problem:

    1. (Nur Kennzeichen, nur Ref-Weblinks) → erhält 85 % Zustimmung
    2. (Nur Kennzeichen, alle Weblinks) → erhält 70 % Zustimmung
    3. (automatisches Ersetzen) → erhält 35 % Zustimmung

    Mit der o. a. Formulierung wäre Vorschlag 1 angenommen, obwohl der weitergehende Vorschlag 2 ebenfalls die geforderte Mehrheit erreicht. Da jeder Vorschlag den jeweils vorhergehenden impliziert, ist eine nach unten absteigende Zustimmung sehr wahrscheinlich. Die Optionen 2 und 3 haben damit von vornherein keine Chance, es wird entweder Option 1 oder nix… Wäre es da nicht sinnvoller, den Satz zu ändern in

    Werden mehrere Vorschläge angenommen, wird der weitestgehende davon umgesetzt.

    Gruß, der Gunslinger Klönschnack 13:26, 21. Aug. 2017 (CEST)

    Kommt drauf an, was man will. Wenn man einen Vorschlag umsetzen will, der eine möglichst breite Mehrheit findet, ist die jetzige Formulierung besser. - Nicht so glücklich finde ich, dass die grundsätzlichen Optionen: „Ich möchte, dass solche Bots im Artikelnamensraum aktiv werden dürfen“ vs. „ich möchte nicht, dass solche Bots im Artikelnamensraum aktiv werden dürfen“ (i.e. Status quo festschreiben) nicht vertreten sind. --Mautpreller (Diskussion) 14:09, 21. Aug. 2017 (CEST)
    Letzteres ist mir auch aufgefallen. Allerdings erfüllt dreimal Kontra denselben Zweck, sonst müßte es aufgeteilt werden wie folgt:
    0. (Nur Diskussionsseiten bearbeiten) (Status Quo)
    1. (Artikelnamensraum bearbeiten)
      1. (Nur Kennzeichen, nur Ref-Weblinks)
      2. (Nur Kennzeichen, alle Weblinks)
      3. (automatisches Ersetzen)
    Das wäre jetzt ein wenig zu komplex für ein MB, das eine 2/3-Mehrheit anstrebt. Zu der möglichst breiten Mehrheit: Wie o.a. erreicht die immer Option 1. Wenn 67 % der Abstimmenden mehr wollen, sollten ihre Stimmen nicht per MB-Design im Klo landen. So wie es jetzt ist, kann es nur zwei Ergebnisse geben: Ablehnung und Vorschlag 1. Das ist der Grund, warum ich mich nicht als Unterstützer eintrage: Zwei von drei Änderungsvorschlägen sind von vornherein ohne jede Chance. --Gunslinger Klönschnack 16:59, 21. Aug. 2017 (CEST)
    Eine separate Abstimmung über die „Grundsatzfrage“ möchte ich vermeiden, weil sie Abstimmende vor ein Dilemma stellen könnte: Wer nur einen oder zwei der Vorschläge befürwortet, einen anderen aber heftig ablehnt, könnte sich, sofern sich bei diesem Erfolgsaussichten zeigen würden, gezwungen sehen, bei der Grundsatzfrage taktisch mit „nein“ zu stimmen, obwohl er eigentlich gar nicht grundsätzlich gegen den Bot-Einsatz als solchen ist. Indem über die Vorschläge nicht mehrstufig, sondern „flach“ und einzeln abgestimmt wird, will ich erreichen, dass alle unbesorgt für genau das stimmen können, was sie wirklich wollen. - Das von Gunslinger geschilderte Problem kann ich nachvollziehen. Allerdings könnte sein Lösungsvorschlag m.E. auch auf Unwillen stossen: „Was, 85 % haben für den weniger weitgehenden Vorschlag gestimmt und nur 70 % für den weitergehenden, und jetzt soll der weitergehende umgesetzt werden? Wie bitte? Das soll der Wille der Community sein???“ (bzw. es könnte aufgrund einer solchen Festlegung formale Ablehnungen des MB geben)... ich glaube nicht, dass das funktionieren würde. Andere Ideen? Gestumblindi 20:02, 21. Aug. 2017 (CEST)
    Ich finde auch, dass wir keine grundsätzliche Ja-nein-Frage stellen sollten. Mit einem Ja würde man die Katze im Sack wählen – das machen vermutlich nur die Leute, die für Option 3 (weitgehende Rechte) stimmen. Wer den Staus quo beibehalten will, der stimmt einfach bei allen Vorschlägen für Nein.
    Bezüglich Auszählungsmodus: Einer hohen Anzahl an Pros kann theoretisch eine ebenfalls sehr hohe Anzahl an Kontra gegenüberstehen. Diese Variante als „gewählt“ zu deklarieren hat ein hohes Konfliktpotenzial. Ich würde lieber die höchste Zustimmungsquote als gewählt betrachten wollen, und bei Gleichstand den weniger weitgehenden Vorschlag vorziehen. Quasi ein Kompromiss, der bei Interpreationsspielraum zugunsten des Status quo tendiert. Im Sinne des Community-Friedens wäre dies meiner Meinung nach besser, als das „größtmögliche“ Ergebnis zu erzielen. --Martina Disk. 21:06, 21. Aug. 2017 (CEST)
    Ich finde den Vorschlag (bei mehreren angenommenen Vorschlägen jenen mit der höchsten Zustimmungsquote umsetzen) gut. Gestumblindi 21:39, 21. Aug. 2017 (CEST)

    Könnte man nicht Variante 0 einfügen: Es wird Bots nicht erlaubt, im Artikelnamensraum Archivdateien einzutragen (= Status quo)? --Mautpreller (Diskussion) 12:26, 22. Aug. 2017 (CEST)

    Das ist doch überflüssig, denn wenn alle 3 Vorschläge abgelehnt werden, ändert sich nichts am Status quo. Gestumblindi 13:17, 22. Aug. 2017 (CEST)
    Überflüssig ist es nicht, wenn auch nicht unbedingt nötig. Ich geh halt davon aus, dass jemand, der in diesem Meinungsbild seine Stimme abgeben will (oder soll), gerne seine Präferenz in den Vorschlägen wiederfinden will. Da gibts eigentlich vier Varianten: Die Bots sollen nicht im ANR schreiben, sie sollen bloß in Einzelnachweisen Links anbieten dürfen, sie sollen in Einzelnachweisen und Weblinks Links anbieten dürfen, sie sollen alles machen dürfen, was sie können.--Mautpreller (Diskussion) 14:22, 22. Aug. 2017 (CEST)
    Ich finde, das haben wir weiter oben schon geklärt. Wir machen drei Vorschläge und jeder kann jeden Vorschlag ablehnen. --Martina Disk. 15:23, 22. Aug. 2017 (CEST)
    Meinte ich oben bereits: Dreimal Kontra tut’s auch, sonst wird das MB unnötig kompliziert. Es wird auch so schwer genug, eine 2/3-Mehrheit für irgendetwas Neues zu bekommen. Wegen WP:HWSISG… --Gunslinger Klönschnack 19:47, 22. Aug. 2017 (CEST)
    Wenn das Neue die Botpedia ist … --Mautpreller (Diskussion) 20:53, 22. Aug. 2017 (CEST)

    Hm. Ich habe eine Frage @Gestumblindi et al. Ich habe entsprechend obigerm Verlauf umseitig geschrieben

    Werden mehrere Vorschläge angenommen, wird jener mit der höchsten Zustimmungsquote (Pro minus Kontra) umgesetzt.

    Aber jetzt frage ich mich. Zustimmungsquote = Pro minus Kontra? Oder: Zustimmungsquote = % Pro ? Zum Vergleich ein paar Beispielzahlen:

    pro kontra Pro-Kontra Zustimmungs-
    quote
    185 60 125 76 %
    115 30 85 79 %
    210 80 130 72 %

    Kopfkratzend --Martina Disk. 03:32, 23. Aug. 2017 (CEST)

    Nein, Martina, „Quote“ bedeutet Anteil, also einen in Prozent ausdrückbaren Wert. Ich fummle das mal auf der Vorderseite zurecht, wenn mich bei den Unterstützern eintrage. Wenn der Rest lieber den Stimmenabstand (Pro-Kontra) möchte, könnt ihr ja revertieren. --Gunslinger Klönschnack 10:22, 23. Aug. 2017 (CEST)
    Ich finde es gut so, wie es Gunslinger jetzt gemacht hat. Gestumblindi 13:16, 23. Aug. 2017 (CEST)
    ok, danke :-) --Martina Disk.

    Ich muss das hier nochmal thematisieren. Irgendwie ist der Aspekt von @Gunslinger.1970 untergegangen, dass der Auswertemodus zurzeit natürlicherweise auf Vorschlag 1 hinausläuft (sofern überhaupt Mehrheiten erreicht werden). Wenn ich als Benutzer beispielsweise die weitgehenste Variante 3 bevorzugte, müsste ich entweder in den kleineren Varianten überhaupt nicht abstimmen oder sogar kontra wählen, damit mein Favorit die höchste Zustimmungsquote erreicht. Dabei wären mir Varianten 1 oder 2 immernoch tausendmal lieber als der Status Quo. Mit etwas Pech erreicht Variante 3 dann nicht die höchste Quote, die anderen wegen meines Abstimmverhaltens aber ebenfalls keine Zustimmung und es bliebe beim Status Quo.

    Wir bieten hier ja absichtlich drei Varianten mit eskalierender Intensität an, damit die Community die Hilfe vom Bot im gewünschten Umfang erhalten kann und daraus auch wählen kann. Ich würde deshalb auch diesem Ansinnen folgend eskalierend auswerten und tatsächlich die weitgehenste Variante mit Zustimmung als gewählt betrachten wollen; sonst ist das irgendwie schief. —MisterSynergy (Diskussion) 08:29, 29. Aug. 2017 (CEST)

    Das war ja mein Vorschlag. Allerdings sind beide Initiatoren für die Lösung mit der höchsten Zustimmungsquote, weil sie um den „Community-Frieden“ fürchten. Ihre Entscheidung, es ist ja ihr Meinungsbild… Obwohl das Friedensargument eh nicht zieht: Einige Kollegen werden jeglichen Boteinsatz im ANR bis aufs Messer bekämpfen, das wird ja oben schon angedeutet. Da also ohnehin mit Fundamentalopposition zu rechnen ist, kann man auch gleich die große Lösung nehmen (weitestgehende Option gewinnt), oder, Gestumblindi und Martina? --Gunslinger Klönschnack 09:11, 29. Aug. 2017 (CEST)
    Nein, das sehe ich immer noch nicht so. Denn als „irgendwie schief“ kann es doch auch wahrgenommen werden, wie ich weiter oben schrieb, wenn man dann feststellen muss: „Was, 85 % haben für den weniger weitgehenden Vorschlag gestimmt und nur 70 % für den weitergehenden, und jetzt soll der weitergehende umgesetzt werden? Wie bitte? Das soll der Wille der Community sein???“ Gestumblindi 13:18, 29. Aug. 2017 (CEST)
    Dann ist das hier ne Krücke und wir können uns Vorschlag 2 und 3 sparen. Wer für einen dieser weitergehenden Abschnitte stimmen möchte, wird sinnvollerweise auch den darin vollständig enthaltenen Vorschlag 1 befürworten und es kann nur in jenem die höchste Zustimmungsquote erreicht werden. Oder Du zwingst die Community zum Zocken wie heute morgen von mir beschrieben – was in einem Meinungsbild nicht der Fall sein sollte. —MisterSynergy (Diskussion) 14:26, 29. Aug. 2017 (CEST)
    @MisterSynergy: Eventuell wäre das eine Idee: Das MB tatsächlich auf den am wenigsten weitgehenden Vorschlag 1 beschränken und dabei festhalten, dass zu einem späteren Zeitpunkt über weitergehende Rechte für Bots abgestimmt werden könnte, falls sich der Boteinsatz in diesem Rahmen bewährt? Würde das MB auch weiter verschlanken. Was meinst du, Martina? Gestumblindi 22:38, 29. Aug. 2017 (CEST)
    Ich würde gerne einen Abstimmungsmodus festlegen, der für die Abstimmenden am wenigsten „riskant“ ist. Deswegen bin ich vehement gegen ein pauschales „Ja“ mit einer späteren Wahl der konkreten Variante. Ich sehe es auch wie Gestumblindi, dass eine Variante mit nur 70 % Zustimmung nicht das Rennen machen sollte gegenüber einer mit 85 % Zustimmung. Kann aber auch sein, dass ich einfach schlecht in Logik bin. Mir erschließt sich jedenfalls nicht, wieso bei dem jetzigen Vorschlag die Variante 1 das Rennen machen sollte.
    Könnte man vielleicht ein Zusatzvotum () für den Fall des Gleichstandes anbieten? Wer also zum Beispiel für Vorschlag 1 und 2 mit Pro stimmt, aber bei gleicher Stimmzahl lieber Nr. 2 gewinnen sieht, kann dem Pro bei Nr. 2 das Herz geben. Oder so.
    Ginge es nach mir, würde ich sowieso nur Vorschlag Nr. 1 zur Abstimmung stellen. Zum jetzigen Zeitpunkt halte ich das für den einzigen Kandidaten mit einer echten Chance. Ich stimme mit Gestumblindi darin überein, dass ein weitergehender Boteinsatz später noch zur Abstimmung gebracht werden kann, wenn die Vor- und Nachteile des Boteinsatzes allen besser bekannt sind. --Martina Disk. 04:44, 30. Aug. 2017 (CEST)

    Es geht logisch nicht, sowohl Vorschlag 1 zuzustimmen (der ja Änderungen im Abschnitt Weblinks verbietet) und gleichzeitig ein „ja“ bei Vorschlag 2 zu setzen (wo das erlaubt ist). Hier liegt der Grund für die Schräglage in Abstimmstrategie oder Auswertungsregeln. Ich persönlich kann zwar eigentlich keinen echten Unterschied zwischen den diskutierten Archivlink-Setzungen im Weblink-Bereich zu denen im EN-Bereich sehen (es soll ja ohnehin ein Mensch drüberschauen und immerhin wird der Leser nun gewarnt, dass der Link nicht funktioniert, was imho als Begründung für den Boteinsatz schon genügt), aber es wäre auch in meinen Augen das sinnvollste, nur Vorschlag 1 anzubieten. Wenn die Erfahrungen mit dem Bot dann ausreichend gut waren, dann kann man auf dieser Basis über Erweiterungen in einem Folge-Meinungsbild abstimmen lassen. Kein Einstein (Diskussion) 08:44, 30. Aug. 2017 (CEST)

    Könnte man nicht in diesem Fall (also wenn nur Vorschlag 1 angeboten wird) unterscheiden zwischen: Ja, der Bot darf innerhalb von Einzelnachweisen im ANR einen Archivlink anbieten; nein, der Bot darf nicht im ANR tätig werden (Status quo)? --Mautpreller (Diskussion) 10:01, 30. Aug. 2017 (CEST)

    Ja, würden wir dann wohl auch (so ähnlich). Aber ich möchte Gestumblindis Meinung hierzu hören. Er wollte lieber drei Vorschläge. --Martina Disk. 07:16, 31. Aug. 2017 (CEST)
    @Martina Nolte: Ja, wollte ich eigentlich. Aber wenn hier nun anscheinend die meisten eher dafür sind, nur über einen Vorschlag abzustimmen, können wir das machen. Vielleicht doch der beste Ansatz. Gestumblindi 14:45, 2. Sep. 2017 (CEST)
    Gestumblindi, ok. Dann also die einfachste Variante Pro, Kontra, Enhaltung, Auszählungsmodus Zweidrittelmehrheit, richtig? --Martina Disk. 05:31, 6. Sep. 2017 (CEST)

    InternetArchiveBot auf alswiki

    Als Anschauungsbeispiel: Auf der Alemannischen Wikipedia läuft der Bot mittlerweile. --Holder (Diskussion) 13:40, 4. Sep. 2017 (CEST)

    @Holder: Danke für die Info! Und wie schätzt ihr die Aktivität bis jetzt ein? Ich muss ja sagen, dass ich einen Edit wie diesen nicht besonders gut finde: Da wird der defekte Weblink auf eine Weise ersetzt, bei der als Resultat nicht kenntlich ist, dass es sich um einen Archivlink handelt – das sollte doch das Mindeste sein. Aber unser Vorschlag 1, der nun wahrscheinlich der einzige Vorschlag werden wird, über den wir abstimmen (weitere Meinungen zu dieser Frage sind willkommen), würde ja sowieso nur das Ergänzen von Archivlinks und dies auch gar nicht im Abschnitt Weblinks erlauben. Gestumblindi 23:33, 4. Sep. 2017 (CEST)
    @Gestumblindi: alswiki kannst du nicht mit dewiki vergleichen in solchen Fällen. alswiki hat andere Betriebsregeln. Auf dewiki, sind Sie viel restriktiver eingestellt.—CYBERPOWER (Diskussion) 16:59, 5. Sep. 2017 (CEST)
    @Cyberpower678: Dass es in alswiki in mancherlei Beziehung etwas anders läuft als hier, ist mir schon klar (ich bin dort kaum aktiv, habe aber auch schon etwas geschrieben). Trotzdem hätte ich mir vorgestellt, dass man es auch dort als wünschenswert ansehen würde, dass ein Archivlink wenigstens als solcher gekennzeichnet wird, Holder? Wenn nicht, nunja, dann ist es eben so. Gestumblindi 21:13, 5. Sep. 2017 (CEST)

    Das Portal Physik hat beim 2. Probelauf scheinbar auch keine größeren Probleme mehr gefunden. Nichtsdestotrotz würde ich empfehlen, daß – wo nun der Bot seit 1.9. im Hintergrund scannt – in einer Woche oder so ein abschließender 3. Lauf (200–300 Artikel) erfolgt, damit die offensichtliche Unbedenklichkeit der ANR-Edits des InternetArchiveBots auf der Vorderseite entsprechend prominent erwähnt werden kann, bevor es zur Abstimmung kommt. Gruß, der Gunslinger Klönschnack 00:10, 5. Sep. 2017 (CEST)

    Können wir machen. Wenn sich niemand vordrängelt, auch gerne wieder in der Physik – oder müssten wir das ohnehin, da der Bot nur dort scannt? Kein Einstein (Diskussion) 15:56, 5. Sep. 2017 (CEST)
    Um zu klarifizieren, IABot scannt jetzt überall.—CYBERPOWER (Diskussion) 16:59, 5. Sep. 2017 (CEST)
    Hi, CYBERPOWER! Wegen der Diskussion gestern auf Deiner en-Userpage: Wie Du siehst, war ich bereits Unterstützer dieses Meinungsbildes. Aber trotzdem gut, daß Du Werbung dafür machst…
    Hi, Kein Einstein! Physik-Artikel wären gut: Viele Reflinks auf (womöglich offline gegangene) Paper, die sich nie ändern werden, quasi der Traumjob für den Bot… Ich sehe gerade die Änderungen des InternetArchiveBots durch und bin positiv überrascht: Der verschmilzt sogar {Internetquelle}- mit {Webarchiv}-Vorlagen zu einer {Internetquelle} inkl. Archiv-Link. Da hat sich jemand richtig Mühe gemacht…
    Gruß an alle, der Gunslinger Klönschnack 19:41, 5. Sep. 2017 (CEST)

    IABot kann hier eingeschaltet werden.—CYBERPOWER (Diskussion) 17:01, 5. Sep. 2017 (CEST)

    Ui, jetzt bin ich schon kurz erschrocken. Aber „Require(s) administrator access“... Gut. Kein Einstein (Diskussion) 20:18, 5. Sep. 2017 (CEST)

    Starttermin

    @Gestumblindi: und alle: Ich glaube, wir sind jetzt fertig, oder? Wann soll das MB starten? --Martina Disk. 05:47, 29. Aug. 2017 (CEST)

    @Martina Nolte: Vielleicht sind wir doch noch nicht ganz fertig, siehe oben. Über einen Startzeitpunkt können wir uns aber sowieso erst unterhalten, wenn es mindestens 10 Unterstützer hat, so sind ja die Regeln. Ich würde vorschlagen, dass wir die gerade aufgeworfenen Fragen noch ausdiskutieren (inkl. eventuelle Anpassungen/Kürzungen des MB) und dann, sollte es bis dahin noch keine 10 Unterstützer haben, jene Leute anschreiben, die hier bislang mitdiskutiert, aber noch keine Unterstützerstimme abgegeben haben, mit der Bitte, sich das MB nochmal anzuschauen und es eventuell, wenn für fertig ausgearbeitet befunden, zu unterstützen? Gestumblindi 22:47, 29. Aug. 2017 (CEST)
    Klingt gut. --Martina Disk. 04:47, 30. Aug. 2017 (CEST)
    HalloMartina Nolte, Gestumblindi! Ich bin ja kein Initiator, aber ich würde es nicht zu eilig haben mit dem Start. Als Unterstützer mehrerer gescheiterter MB habe ich gelernt: schnell ≠ erfolgreich. α- (hatte noch Fehler), β- ( 99 % erfolgreich), γ-Test (hoffentlich 100 % erfolgreich) sind nötig, um die zweifelnde Mehrheit dazu zu bringen, etwas Neues auszuprobieren. Gerade in D-A-CH gilt da immer noch WP:HWSISG
    Gruß, der Gunslinger Klönschnack 01:14, 6. Sep. 2017 (CEST)
    Wie gesagt, wir haben eh noch keine 10 Unterstützer, insofern war die Frage nach dem Starttermin schon rein formal gesehen verfrüht. Und ja, überstürzt gestartete Meinungsbilder sind selten erfolgreich. Ich werde aber das MB in den nächsten Tagen (entweder noch vor oder dann bald nach der WikiCon – dort werde ich wohl leider weder dich noch Martina antreffen, jedenfalls sehe ich euch nicht in der Liste?) noch einmal überarbeiten und dabei wahrscheinlich auf den mutmasslich chancenreichsten Vorschlag 1 reduzieren sowie auf die Physik-Probeläufe und (etwas ausführlicher) den Einsatz in der alemannischen Wikipedia verweisen. Danach eben noch ein paar Leute anschreiben, dann haben wir wohl auch unsere 10 Unterstützer und können Mitte/Ende September einen Starttermin eintragen, so würde ich das jetzt sehen. Vielleicht könnte es etwa der 1. Oktober werden. Gestumblindi 01:33, 6. Sep. 2017 (CEST)
    Hi, Gestumblindi! Selbst wenn 10 Unterstützer erreicht sind, sollten wir uns Zeit lassen. Es ist ja noch einiges zu erledigen:
    • FAQ auf meta prüfen (Wer sich mit dem Übersetzungsgeraffel auf meta auskennt, der prüfe bitte.) Ich habe noch ein kleines Verständnisproblem mit “the interface roots”, ansonsten ist es soweit komplett…
    • Bot-Seiten auf WMF-Labs übersetzen
    • Womöglich noch einer dritten Test an Physik-Seiten mit dem jetzt im Hintergrund scannenden Bot
    Wir sollten dem geneigten Publikum schon einen ausgereiften Bot präsentieren können, um die (m. E. unnötig hohe) 2/3-Mehrheit für dessen Einsatz zu bekommen. Betr. WikiCon: Bin z. Zt. immobil wegen (hoffentlich vorübergehender) Arbeitslosigkeit. Wenn ich mir Leipzig nicht mal zum WGT leisten kann, dann fällt WikiCon erst recht weg…
    Gruß, der Gunslinger Klönschnack 13:47, 6. Sep. 2017 (CEST)
    Die #To-do-Liste (bitte zwecks Übersichtlichkeit dort ergänzen bzw. aktualisieren).
    @Gunslinger: Bzgl. WikiCon kannst du Reise- und Übernachtungskosten bei einem der Wikimedia-Vereine beantragen. Das geht bestimmt auch noch kurzfrisitg. --Martina Disk. 07:16, 8. Sep. 2017 (CEST)
    Hallo Martina, Ist nun etwas zu spät, WikiCon fängt ja schon an, außerdem müßte ich das vorfinanzieren. Vielleicht nächstes Jahr…
    Ich habe nur schnell zusammengefaßt, was m.E. nötig bzw. wünschenswert wäre, damit man auf der Vorderseite einen für die de:WP angepaßten und startbereiten Bot vorführen kann. Andernfalls kommen schnell Kommentare wie „Beta-Software“ o. ä., und das MB braucht immerhin eine 2/3-Mehrheit. Die To-do-Liste pflege ich natürlich dort, wo sie ist. Gunslinger Klönschnack 13:39, 8. Sep. 2017 (CEST)
    Oh okay, danke. Auch fürs Erstellen der lokalen Vorlagen!
    Gestumblindi: 10 Unterstützer sind zusammen. Magst du alle anpingen, um eine Schlussfassung abzustimmen und einen Starttermin auszumachen?
    @all: Ich hoffe ich habe etwas mehr Zeit diese Woche, um mit dem Übersetzen des Interfaces weiterzumachen. Ich teile die Arbeit aber gerne mit jemandem. :-) --Martina Disk. 04:28, 11. Sep. 2017 (CEST)
    @Martina Nolte, Gunslinger.1970: Danke für eure Arbeiten am Meinungsbild! Ich hatte es während der WikiCon nicht im Blick und sehe die Fortschritte erst jetzt. Mir scheint, dass die Pro- und Contra-Argumente noch etwas der veränderten Situation angepasst werden müssen (z.B. ist noch die Rede von "Lösungsvorschlägen", es gibt aber nur noch einen). Heute werde ich nicht dazu kommen - wenn ihr wollt, nur zu, sonst will ich mir das morgen anschauen. Gestumblindi 19:55, 11. Sep. 2017 (CEST)
    @Martina Nolte: Ich denke, jetzt ist es wirklich ziemlich fertig. Ich werde nun die 10 Unterstützer anschreiben und darum bitten, nochmals drüberzuschauen. Dann können wir wohl sehr bald einen Starttermin festlegen. Gestumblindi 19:11, 16. Sep. 2017 (CEST)
    Die Unterstützer sind angeschrieben (Beispiel). Gestumblindi 19:37, 16. Sep. 2017 (CEST)

    Kontra-Argumente

    Die derzeitige Fassung der Kontra-Argumente enthält ein paar sachliche Fehler und Unschärfen.

    1. Wir brauchen weiterhin Botläufe und Meldungen auf der Diskussionsseite betroffener Artikel, wenn für defekte Links keine Version auf Archive.org verfügbar ist. Es muss geprüft werden, ob der Link unter einer anderen Adresse live verfügbar ist oder in einem anderen Archiv (Webcite, archive.is). - Andere Bots können andere Archivlinks in IABot einspeisen, so dass diese in einem Botlauf eingearbeitet werden können. Ich kann das gerne umseitig unter "Aufgabenteilung GiftBot und InternetArchiveBot (IABot)" noch deutlicher machen.
    2. Auch Archivlinks müssen von einem Menschen geprüft werden, es wird also keine Kapazität gewonnen. - Es wird im MB relativ kleinteilig erklärt, worin die Arbeitsentlastung besteht. Ich kann das aber gerne noch deutlicher reinschreiben: Vor allem die mühselige Handhabung der Vorlagen entfällt. Die Autoren können sich ganz auf die Prüfung der Inhalte konzentrieren.
    3. Es gibt jedoch deutliche Hinweise darauf, dass das Einsetzen von Archivlinks in bestimmten Bereichen sinnvoll und in anderen Bereichen nicht sinnvoll oder sogar schädlich ist. - Gibt es für diese Behauptung überprüfbare Begründungen und Beispiele? Was sind die deutlichen Hinweise?
    4. Grundsätzlich ist gedruckte Literatur zu bevorzugen, aktuelle „live“ Links sind immerhin zweite Wahl. - Was ist der Anhaltspunkt für diese Behauptung? Unsere Anforderungen an Quellen lesen sich anders.

    --Martina Disk. 07:00, 14. Sep. 2017 (CEST)

    zu 1: Mag sein. Dann wäre es so umzuformulieren, dass das Internet Archive durch diese Lösung begünstigt wird.
    zu 2: Dieses Argument ist so korrekt. Es wird keine Kapazität gewonnen, weil die inhaltliche Prüfung das Wesentliche und Zeitaufwändige ist. Man könnte es sogar noch erweitern: Falls es zutrifft, dass nicht genügend Arbeitskraft für die Abarbeitung toter Links verfügbar ist, bedeutet das, dass ungeprüfte Links dauerhaft im Artikelnamensraum stehen bleiben. Das führt zu einem Verlust an Qualität.
    zu 3: Das Argument ist so korrekt. Siehe die Diskussion unter "Beispiel". Insbesondere bei Artikeln aus den Bereichen Literatur/Kunst, Geschichte und Politik erweisen sich Archivlinks zumindest in einer Reihe von Fällen als völlig ungeeignet, ja schädlich. In der Diskussion wurde argumentiert, dass dies insbesondere bei Artikeln, für die keine Forschung bzw. Forschungsliteratur verfügbar ist, anders sei. Das Argument spiegelt schlicht die Diskussion wider.
    zu 4: Doch, unsere Anforderungen an Quellen lassen diesen Schluss zu. Generell wird zur besonderen Vorsicht bei "Informationen aus dem Internet" geraten. Wissenschaftliche Publikationen, die gewöhnlich keinen Weblink benötigen (höchstens als Service), sind in vielen Fällen nicht im Internet verfügbar. Wenn sie es sind, gilt das für gemeinfreie Texte, Online-Journale und wissenschaftliche Online-Veröffentlichungen. Solange diese auf einer gepflegten Website live verfügbar sind, kann man davon ausgehen, dass sie zuverlässig geprüft wurden. Sind sie es nicht mehr, gibt es keinen Grund mehr, davon auszugehen.
    Generell: Beim Urheberrechts-Argument gibt es Ungenauigkeiten. Es müsste heißen: Dennoch entspricht die Veröffentlichung urheberrechtsgeschützter Werke im Internet Archiv nicht dem Urheberrecht in Deutschland, Österreich und der Schweiz. Links auf Seiten, die nach DACH-Recht Urheberrechtsverletzungen darstellen, sollten grundsätzlich nicht gesetzt werden ... Grund: Bei nicht urheberrechtsgeschützten Werken ist die Veröffentlichung unproblematisch, "diese" ist also irreführend, das gilt für eine Teilmenge. Und Links, die nach DACH-Recht Urheberrechtsverletzungen darstellen "würden", ist irreführend. Die Links weisen in diesen Fällen auf Seiten, die urheberrechtsgeschützt sind, nach DACH-Recht sind diese Veröffentlichungen daher Urheberrechtsverletzungen. Man mag sich darüber streiten, ob DACH-Recht hier anwendbar ist (mir scheint das klar) und ob ein Link bereits eine Verletzung ist (das glaube ich tendenziell eher nicht). Aber wenn eine Seite "nicht dem Urheberrecht im DACH-Raum entspricht", ist sie eine URV, wenn man DACH-Recht zugrunde legt, sie "würde" es nicht nur sein.--Mautpreller (Diskussion) 10:11, 14. Sep. 2017 (CEST)
    zu 4: ich bin überrascht, dass Du da den wissenschaftlichen Bereich anführst. Gerade dort (zumindest im mir bekannten naturwissenschaftlichen Bereich) hat man seit vielen Jahren die Vorzüge der neuen Technologien erkannt, und praktisch die komplette Musik findet online statt. Das trifft mittlerweile in den meisten Fällen auch für Literatur aus dem vor-Internetzeitalter zu. Zwar werden auch heutzutage noch ein paar Journals tatsächlich gedruckt und dann verschickt, die Reichweite erzeugt man aber über das Internet; außerdem kann man effektiv korrigieren und zurückziehen, sofern das notwendig ist, und ist weniger an die Beschränkungen des Papiers gebunden (Umfang, Farbdruck, bewegte Medien, etc…). Ehrlich, wissenschaftliche Literatur ist IMHO das beste Vorbild, warum wir den Gedanken „Vorsicht bei Informationen aus dem Internet“ besser schnell vergessen sollten. —MisterSynergy (Diskussion) 11:16, 14. Sep. 2017 (CEST)
    Ich kenne mich mit dem geistes- und sozialwissenschaftlichen Bereich aus, dort ist das im Wesentlichen nicht der Fall. In den Naturwissenschaften mag das anders sein. Aber gerade dann sollte man sich auf Live-Links beschränken. Wenn eine Seite gepflegt wird, kann man sich darauf verlassen, dass ihre Inhalte geprüft werden. Das ist nicht mehr der Fall, wenn die Seite nicht mehr gepflegt wird oder gar nicht mehr erreichbar ist.--Mautpreller (Diskussion) 11:27, 14. Sep. 2017 (CEST)
    Schätze man würde für wissenschaftliche Literatur sowieso einen DOI-Link oder eine ISBN angeben. Die sind beide relativ robust gegen das Veralten. —MisterSynergy (Diskussion) 11:41, 14. Sep. 2017 (CEST)
    Ja, das würde ich definitiv bevorzugen. Da weiß man, worauf man verlinkt. Und eine komplette Literaturangabe würde auch sehr helfen. Das sind aber ganz andere Lösungen als automatisches Setzen von Archivlinks.--Mautpreller (Diskussion) 11:48, 14. Sep. 2017 (CEST)
    PS: Dass das Argument unter 2 nicht eben abwegig ist, lässt sich zum Beispiel an diesem Edit erkennen. Es ist absehbar, dass der Boteinsatz nicht der inhaltlichen Prüfung oder gar der Suche nach geeigneteren Links zugute komen wird.--Mautpreller (Diskussion) 17:41, 14. Sep. 2017 (CEST)
    Zu 2. "Auch Archivlinks müssen von einem Menschen geprüft werden. Das Aufwendige daran ist die inhaltliche Prüfung und evtl. Suche nach Ersatz oder Erwägung einer Streichung, nicht die Vorlagennutzung. Hier kann der Bot nicht helfen, dies ist eine menschliche Aufgabe. Dafür werden durch den Bot praktisch keine neuen Kapazitäten frei und es ist zu befürchten, dass die Archivlinks, ob geeignet oder ungeeignet, einfach ungeprüft im Artikelnamensraum stehen bleiben; möglicherweise „für immer“." - Zum einen "müssen" Links nicht geprüft werden, weder vor noch nach der Bearbeitung durch einen Bot. Und wenn zum jetzigen Zeitpunkt ein toter Link "für immer" im Artikel steht und nach einem Boteinsatz "für immer" ein Archivlink, der immerhin zeigt, was sich früher mal hinter dem Link verbarg - das ist doch ein Vorteil, warum wird das als Nachteil verkauft? Viele Grüße, Grueslayer 17:42, 17. Sep. 2017 (CEST)
    Ja. Grundsätzlich finde ich es bedenklich, wie Mautpreller die Kontra-Argumente quasi im Alleingang bestimmt. --Martina Disk. 19:07, 17. Sep. 2017 (CEST)
    Nun, ich bin froh, dass sich hier jemand engagiert auch um die Kontra-Seite gekümmert hat; so schlecht finde ich die Zusammenstellung der Argumente nicht, und die Abstimmenden können sie schliesslich auch für sich selbst noch beurteilen. Gestumblindi 20:27, 17. Sep. 2017 (CEST)
    Naja, man kann es doch nicht den Initiatoren und Unterstützern des Meinungsbilds allein überlassen. Mir ist dieses Meinungsbild wichtig (als Gegner des Vorschlags), deshalb kümmere ich mich drum. Wie ihr wisst, gibt es noch mehr Gegner des Vorschlags, die aber momentan hier nicht aktiv sind. Kontra-Argument Nr. 1 zum Beispiel stammt von Succu. Ich hab, wo ich redigiert habe, das überarbeitet, was ich vorgefunden habe und was in der Diskussion genannt wurde. Alle Argumente sind hier in extenso diskutiert worden. Ich hab auch schon eins gestrichen, weil es auf den gegenwärtigen Vorschlag nicht mehr passte. Man kann gern noch weiter drüber reden, aber es geht nun wirklich nicht an, dass die Unterstützer und Initiatoren des MB bestimmen, was in den Kontra-Argumenten steht.--Mautpreller (Diskussion) 21:49, 17. Sep. 2017 (CEST)
    Das hat niemand versucht. Im Gegenteil finde ich, dass dir durchgehend sehr konstruktiv und sachlich begegnet wurde. Ich habe dich auch in diesem Abschnitt lediglich auf Ungenauigkeiten und sachliche Fehler in deiner Argumentation hingewiesen. Aber gut, Gestumblindi hat Recht: Die Leute können selbst lesen und beurteilen. --Martina Disk. 22:08, 17. Sep. 2017 (CEST)
    Ein "sachlicher Fehler" lag allenfalls in Punkt 1 vor. In den anderen Punkten sehen die Einschätzungen einfach unterschiedlich aus, von sachlichen Fehlern und Ungenauigkeiten kann da nicht die Rede sein. Ich habe noch ein bisschen präzisiert, um Missverständnisse zu vermeiden.--Mautpreller (Diskussion) 22:38, 17. Sep. 2017 (CEST)
    @Grueslayer: Doch, sie müssen geprüft werden. Außer man möchte die Verantwortung für diesen Teil des Artikelinhalts an den Bot abgeben. Das kann man wollen, ich halte es aber für grundfalsch.--Mautpreller (Diskussion) 21:52, 17. Sep. 2017 (CEST)
    Diesen Teil kann und will der Bot nicht leisten. Es gibt nur ein Scheinverbesserung von der einzig und allein das IA profitiert. --Succu (Diskussion) 22:49, 17. Sep. 2017 (CEST)
    Hi Succu, schau Dir doch nochmal die Kontra-Argumente an. Nicht dass es heißt, ich bestimme sie im Alleingang.--Mautpreller (Diskussion) 23:01, 17. Sep. 2017 (CEST)
    Ich lese hier nur gelegentlich mit, aber grundsätzlich teile ich deine Ergänzungen. Sie sind gute Erwiderungen auf oberflächliche Pro-Argumente wie
    1. Sollte der Inhalt unter einer anderen Adresse weiterhin „live“ verfügbar sein, ist das manuelle Ersetzen des defekten Links (und/oder eines überflüssigen Archivlinks) nicht nennenswert aufwendiger als bisher.
    2. Archivlinks hindern niemanden daran, Artikelinhalte, Einzelnachweise und zugehörige Weblinks hochwertig manuell zu aktualisieren. Sie stellen aber in der Zwischenzeit die Nachvollziehbarkeit sicher.
    3. In einem Archivlink bleibt der konkrete Inhalt, der als Beleg für eine Stelle im Artikel dienen sollte, erhalten, während sich der Inhalt eines „live“-Links ständig ändern kann. Archivlinks belegen die angegebene Information unter Umständen verlässlicher.
    Die Allianz zwischen WMF und IA hilft vllt. beiden Organisationen, aber nicht dem Gedanken an frei verfügbarem Wissen. --Succu (Diskussion) 23:26, 17. Sep. 2017 (CEST)
    Danke. Mich beschäftigt da auch der Gedanke, dass da "Malen nach Zahlen" betrieben wird. Unsere Tools werfen riesige Fehlerzahlen aus? Das macht neue Tools erforderlich, um die Zahlen wieder kleiner zu machen. Es war leider sehr schwierig, über konkrete Fälle zu reden.--Mautpreller (Diskussion) 23:37, 17. Sep. 2017 (CEST)
    Hallo Mautpreller,
    Du hast Dich nicht mit meinem Argument auseinandergesetzt, dass ein permanenter ("für immer") Link auf eine Archivversion für den Leser besser ist als ein permanent toter Link. Darf ich das als qui tacet consentire videtur werten und den Punkt entsprechend löschen? In einem Freiwilligenprojekt "muss" man sich übrigens nur an die Regeln halten, nicht aber tote Links prüfen - weshalb das vermutlich auch nur wenige tun.
    Viele Grüße, Grueslayer 15:41, 18. Sep. 2017 (CEST)
    Lieber Grueslayer, ich habe deutlich gemacht, was es aus meiner Sicht heißen würde, wenn ein automatisch gesetzter Archivlink nicht menschlich geprüft würde. Das würde bedeuten, dass man dem Bot die Verantwortung für diesen Teil des Artikelinhalts (und ja, ein Link ist Teil des Artikelinhalts) übergibt. Ich sagte: Das kann man wollen, ich halte es aber für grundfalsch. Wird das in der Formulierung nicht deutlich? Zu Deinem Argument, ein permanenter Link auf eine Archivversion sei besser als ein permanent toter Link: Dem kann ich mich nicht anschließen. Es ist gut möglich und wird in den Kontra-Argumenten auch gesagt, dass ein solcher Link fehlerhafte Inhalte transportieren kann, sei es, dass er nicht den Stand enthält, den der Linksetzer im Auge hatte, sei es, dass er falsche Angaben oder urheberrechtlich geschützte Werke enthielt, die später aus diesem Grund von der Seite entfernt wurden, es sind noch viele andere Gründe denkbar. In diesen Fällen würde automatisiert und ohne menschliche Prüfung etwas Falsches in den Artikelnamensraum gebracht. Und es ist zu befürchten, dass dies dauerhaft so bleibt, weil das "Problem" der unerreichbaren Quelle ja (scheinbar) adressiert ist, warum also noch etwas tun. Da ist ein toter Link immer noch besser, er transportiert wenigstens nichts Falsches und kann außerdem als dauerhafte Aufforderung an alle verstanden werden, ihn zu aktualisieren, zu ersetzen oder zu streichen.--Mautpreller (Diskussion) 16:12, 18. Sep. 2017 (CEST)
    Ich wollte nicht alle Kontra-Argumente erneut durchkauen (diverse davon sind sachlich übrigens m.E. korrekt, wenn ich sie auch anders bewerte), mir ging es nur um den in diesem Abschnitt oben angeführten und von mir wiederholten Punkt 2: Das Kontra-Argumente lautet m.E. verdichtet, dass der Archivlink "für immer" im ANR verbleibt, weil ihn niemand manuell nachkontrolliert. Dem widerspreche ich nicht inhaltlich - viel zu wenige Kollegen kümmern sich um Linkaktualisierung, willkürliches Beispiel z.B. hier, wo jemand seine eigenen Artikel einfach verrotten lässt - aber formell: Das ist kein Nachteil gegenüber dem Ist-Zustand, sondern eine kleine Verbesserung. Viele Grüße, Grueslayer 16:48, 18. Sep. 2017 (CEST)
    Das seh ich nicht so. Es ist manchmal vielleicht eine "kleine Verbessserung", manchmal aber auch eine deutliche Verschlechterung, weil ungeprüft Falsches in den Artikelnamensraum gelangt. Vor allem aber zielt dieses Kontra-Argument auf das Pro-Argument, dass menschliche Kapazitäten zur inhaltlichen Prüfung gewonnen würden, indem den Menschen mechanische Teilarbeiten abgenommen würden. Das halte ich für falsch und kann dafür auch Argumente anführen. Der Aufwand steckt gerade in der inhaltlichen Prüfung. Es ist absehbar, dass die für eine "Zwischenzeit" eingerichtete Botlösung keine Zwischenlösung darstellen, sondern Dauerzustand bleiben wird, ohne dass je jemand geguckt hat, ob das, was der Bot da "hereinspült", korrekt ist und ob es bessere Lösungen gibt. Gestumblindi und ich hatten eine Debatte genau darüber unter dem Punkt "Seit 2013 ...". Der Unterschied zwischen Pro und Kontra ist hier ganz einfach der: Gestumblindi glaubt, dass es in der Mehrzahl der Fälle eine Verbesserung ist und die Ausreißer vernachlässigt werden können; ich glaube, dass die "Ausreißer" erheblichen Schaden anrichten können und der Nutzen oft gar nicht gegeben ist. Zwischen diesen beiden Interpretationen wird man wohl nicht a priori entscheiden können, das ist Sache der Abstimmenden. Das hier gemeinte Argument heißt einfacher ausgedrückt: Es ist unwahrscheinlich, dass der Bot wirklich Hilfen oder gar Anreize zur inhaltlichen Prüfung bietet. Man kann davon ausgehen, dass es sich micht um eine Zwischenlösung, sondern bereits um ein Endergebnis handelt. Natürlich ist das eine subjektive Einschätzung (wie fast alles in diesem Meinungsbild), aber begründet ist sie durchaus.--Mautpreller (Diskussion) 17:24, 18. Sep. 2017 (CEST)
    Das sind jetzt zwei unterschiedliche Dinge: a.) das Abnehmen von Arbeit durch den Bot und b.) Endergebnis statt Zwischenlösung. Beide Dinge führst Du für den o.g. Punkt 2 an, umseitig ist das Punkt 7. Ich möchte beidem widersprechen. Nicht komplett natürlich, es stecken ja wahre Punkte dahinter. Zu a.) Es ergibt sich schon mathematisch, dass der Bot Arbeit abnähme. Drei Szenarien denkbar: Den toten Link guckt sich keiner an (nix gespart), den Link ersetzt jemand von Hand (nix gespart) und (jetzt kommt's) den Link ersetzt jemand durch - den Archivlink. Ich arbeite viel im Bereich Linkfixes, da stolpert man da oft drüber. Macht ja auch weniger Arbeit als nach alternativen Links suchen, einfach die alte URL bei Archive.org rein und ersetzen. In diesen Fällen spart der Bot Arbeit, das ist Fakt. Zu b.) Da hatte ich Dir ja schon zugestimmt. Was Du aber zum wiederholten Male nicht berücksichtigst: Der tote Link ist, wenn sich niemand um ihn kümmert, auch Endlösung. Der Zustand ist mithin in beiden Fällen der gleiche, nur dass die Version mit Bot wenigstens noch ein Fenster in die Vergangenheit öffnet. Das ist ein Vorteil, kein Nachteil. Der umseitige Kontra-Punkt 7 ist deshalb sachlich falsch, auch wenn er traurige Wahrheiten anspricht - der Schluss daraus ist falsch. Ich würde diesen Punkt deshalb streichen wollen. Viele Grüße, Grueslayer 19:42, 18. Sep. 2017 (CEST)
    Da sind wir unterschiedlicher Meinung. Meine Auffassung ist zu a: Dass es "einfacher" wird, Archivlinks einzusetzen, ist trivial, das macht ja schon der Bot, man muss nichts mehr tun. Damit ist aber nichts gewonnen, denn die Hauptarbeit steht ja noch aus: Ist das denn der Link, der das belegt, was da steht? Ist er geeignet? Könnte er nicht gestrichen werden? Gäbe es vielleicht einen besseren Beleg? Ist vielleicht sogar die Aussage falsch? Dabei hilft der Bot überhaupt nicht, im Gegenteil. Er bietet bloß eine bequeme (Schein-)Lösung an. Die eine Seite des Kontra-Arguments 7 ist: Die Botbefürworter behaupten, der Linkrot sei ein Kapazitätsproblem. Der Bot könne helfen, das zu lösen, weil er die Arbeit erleichtere. Gegenargument: Kann sein, dass es ein Kapazitätsproblem ist, aber der Bot hilft da allenfalls marginal (oder "in der Theorie"), denn die eigentliche Arbeit ist die inhaltliche Prüfung. Wenn unsere Kapazitäten nicht langen, gilt das vor allem für die inhaltliche Prüfung, bei der der Bot gar nicht hilft. - Zu b: Der Haken ist, dass das Problem gelöst scheint, wenn der Bot seinen Archivlink beisteuert. Er demotiviert somit, es gibt keinen Grund mehr, sich des Problems anzunehmen. Gegen das oben genannte Pro-Argument spricht also noch ein zweiter Grund: Es ist sehr wahrscheinlich, dass es sich nicht um eine "Zwischenlösung" handelt (Pro-Argument 3), sondern ein Endergebnis. Einen toten Link wird niemand als "Endergebnis" betrachten (auch wenn es praktisch darauf hinauslaufen kann), sondern als unbefriedigend; bei einem Archivlink ist das aber durchaus plausibel. Der Bot verewigt also möglicherweise eine Lösung, die schlecht ist.
    Als Beispiel: Ich hab mir vor einiger Zeit mal ein paar Links angeguckt, die IABot in der engl. Wikipedia eingesetzt hat; es waren die letzten, die grad anfielen, also mehr oder weniger Zufallsauswahl. Das Ergebnis ist nicht gut. Beispielsweise wurde eine Zahl für einen Golfkurs mit zwei Einzelnachweisen belegt. Einer war tot, der Bot hat brav seinen Archivlink eingesetzt. Da stand allerdings eine andere Zahl drin als im Artikel - und im anderen Einzelnachweis, der die Zahl im Artikel bestätigte. Es war allerdings innerhalb weniger Minuten möglich, einen Live-Link auf derselben Domain zu finden, der tatsächlich ebenfalls die Zahl im Artikel bestätigte. Alle Lösungen wären besser gewesen als die des Bots: toten Link stehen lassen, toten Link streichen - gibt ja noch einen Beleg, Livelink suchen. Das ist natürlich eine zufällige Stichprobe. Vielleicht ist es nur in einem von zehn Fällen so, das wäre meiner Ansicht nach zuviel. Das ist ein relativ triviales Beispiel, ich könnte auch andere, gravierendere nennen (urheberrechtliche und persönlichkeitsrechtliche zum Beispiel). Der tote Link ist eben gar nicht selten eine weniger schlechte Lösung, die Streichung kann sogar die bessere Lösung sein.
    Die Kernfrage bei der ganzen Sache ist: Was versteht man unter Qualität eines Artikels? Ohne Zweifel ist es ein formales Qualitätsmerkmal, dass die Links funktionieren. Dies kann sich aber ins glatte Gegenteil verkehren, wenn die Archivlinks etwas Falsches vorspiegeln. Dann leidet die Qualität (und zwar meines Erachtens ganz erheblich). Man kann sagen, das ist selten und zu vernachlässigen. Dazu gibt es keine Zahlen, mein Eindruck ist gegenteilig: Es kommt recht oft vor. Vielleicht stimmt das nicht, aber jeder Fall, wo etwas Falsches reinkommt, ist m.E. etwas ziemlich Schlimmes. Schlimmer ist aber, dass Links als Einzelbelege ohnehin oft nichts taugen. Wer soll denn noch daran arbeiten, wenn der Bot die toten Links doch schon gefixt hat?--Mautpreller (Diskussion) 21:20, 18. Sep. 2017 (CEST)

    Schutzstufe für Dead-links.js

    Hallo Cyberpower; Gunslinger hat hier vorgeschlagen, Benutzer:InternetArchiveBot/Dead-links.js "mit Admin- oder zumindest Sichterschutz zu versehen, damit der Bot nicht zum Vandalieren mißbraucht werden kann". Ein gewisser Schutz empfiehlt sich sicher. Ich sehe, dass die entsprechende Datei in der englischen Wikipedia geschützt wurde: "[Edit=Require template editor access] (indefinite) [Move=Require administrator access] (indefinite)". Die Schutzstufe "template editor access" haben wir hier nicht, ich würde dann wohl analog mit "Bearbeiten: Nur Sichter" und "Verschieben: Nur Administratoren" schützen? Gestumblindi 15:08, 17. Sep. 2017 (CEST)

    Hallo Gestumblindi, ich vergaß noch eines: Dazu benötigt Cyberpower selbst Sichterstatus, sonst kann er keine Anpassungen an der Konfiguration vornehmen. Gruß, Gunslinger Klönschnack 15:39, 17. Sep. 2017 (CEST)
    @Gunslinger.1970: Passiver Sichter ist er, reicht das nicht? Weiss ich gerade gar nicht... Aber natürlich sollte wohl auch der aktive Sichterstatus kein Problem sein. Gestumblindi 15:59, 17. Sep. 2017 (CEST)
    Nein, das reicht nicht. Mich verwirrt aber gerade viel mehr, warum wir die Datei bearbeiten können, es handelt sich schließlich um JS im BNR… Vielleicht hängt das damit zusammen, dass es eigentlich ein JSON-Skript ist, was unter falschem Namen steht? Persönlich wäre mir eigentlich Admin-Schutz lieber, aber dann hätten wir in der aktuellen Situation mit Cyberpower ein Problem. Ideal wäre, wenn sich der Seitenschutz so verhalten würde wie der von User-js/css. --MGChecker – (📞| 📝| Bewertung) 16:29, 17. Sep. 2017 (CEST)
    Das "Inhaltsmodell" ist JSON, hatte DerHexer angepasst, wie ich sehe. Gestumblindi 16:44, 17. Sep. 2017 (CEST)
    Das war nötig um die Singular/Plural-Ersetzungen zu aktivieren. Meines Erachtens kann man die Seite vollschützen, und Cyberpower muss dann eben kurz auf AN um Aufhebung der Seitensperre bitten, wenn er die Konfiguration ändern will. Den eigentlichen Bot steuert er meinem Verständnis nach über Labs. Das heißt er kann den bot jederzait deaktivieren.
    @Cyberpower678, Gestumblindi, MGChecker:: Wo wir grad bei technicals sind: Mic macht es ein bißchen nervös, dass die Deaktivierung durch einen Wikipedia-Admin derzeit nur auf enWP möglich ist. Kann man das nach deWP verlagern, so dass hiesige Admins den Bot zügig abschalten können, falls er mal großflächig Mist bauen sollte? --Martina Disk. 19:05, 17. Sep. 2017 (CEST)
    Prinzipiell kann man das bestimmt, ich bin aber kein Experte für diesen Bot. Für mich sieht es zudem ganz ehrlich so aus, als wäre das in gewisser Weise eine Lücke in MediaWiki, dass JSON-Files im BNR von allen bearbeitet werden können, auch wenn das gewöhnlich nicht nach außen tritt… Am einfachsten wäre zum Erreichen deines Ziels, Martina, vermutlich eine Konfigurationsvariable im JSON, wo man die gewünschte Seite angeben kann. --MGChecker – (📞| 📝| Bewertung) 19:23, 17. Sep. 2017 (CEST)
    Ich hab von diesen Dingen zu wenig Ahnung. Deshalb sagt mit dein Letzter Satz (Konfigurationsvariable im JSON, wo man die gewünschte Seite angeben kann) leider gar nichts. Könnt ihr Techies das bitte untereinander ausbaldowern? --Martina Disk. 21:32, 17. Sep. 2017 (CEST)
    • Schützen ist schon Notwendig, aber auf gesichtet Stufe wird nicht helfen. IABot holt sich der aktuellste Version, also bringt Sichtschutzt nichts. Vermutlich gibts auch 500/30 Schutz auch nicht. @Martina: IABot kann von jedem deaktiviert werden, die Seite ist nur geschützt weil IABot noch nicht auf deWP erlaubt ist. Wenn IABot gestartet wird, wird der Schutz aufgehoben.—CYBERPOWER (Diskussion) 20:01, 17. Sep. 2017 (CEST)
    Ich weiss nicht, was du mit "500/30 Schutz" meinst. Bezieht sich das auf Anzahl Edits / Tage seit Anmeldung? Wenn ja, dann wäre das so etwas wie unser Sichterstatus, siehe hier. Einen solchen Schutz (Bearbeiten nur durch Sichter) könnte man einsetzen, ja. Gestumblindi 20:09, 17. Sep. 2017 (CEST)
    Fast. 500/30, oder "extendedconfirmed" ist ein Schutz des verbietet das benutzter mit weniger als 500 Bearbeitungen oder vor 30 Tage angemeldet wurde die Seite zu bearbeiten. Sichtschutz ist fuer uns Pending Changes.—CYBERPOWER (Diskussion) 23:51, 17. Sep. 2017 (CEST)
    Ich denke hier ist ein Missverständnis aufgetreten. Da es neben fehlender Projektkenntnisse insbesondere auf Sprachbarrieren zu beruhen scheint, werde ich auf Englisch fortfahren.
    On German Wikipedia, we have coupled the reviewer group with a normal page protection level similar to extendedconfirmed, named editeditorprotected, that is also called "Sichterschutz". We don't refer to FlaggedRevs as protection because it's the default for every article we have. I really neither like the idea to allow everyone to disable the bot nor to couple it to any enwiki right, it should be coupled with a German Wikipedia right, meaning it can't be on enwiki.
    Falls irgendwer ein Problem damit hat, dass ich auf Englisch schreibe, kann ich es auch übersetzen, ich hielt das aber jetzt nicht für notwendig. --MGChecker – (📞| 📝| Bewertung) 00:23, 18. Sep. 2017 (CEST)
    Achso. Danke fuer die Aufklärung. Ich verstehe aber nicht wieso es nicht frei ausgeschaltet werden kann. IABot wird zentral gesteuert in Bezug zu ein und aus schalten. Sehe en:User:Cyberbot II/InternetArchiveBot. Da wird alles schön aufgelistet, und da kann ich leicht sehe wo was ausgeschaltet wird das ich gleich die Probleme behandeln kann.—CYBERPOWER (Diskussion) 01:48, 18. Sep. 2017 (CEST)
    Ich finde einfach nicht, dass jeder Neuling bei einem Missverständnis oder im Rahmen irgendwelche Man-on-a-Mission-Aktivitäten einen Bot ausschalten könnte, der eine so zentrale Rolle einnähme. --MGChecker – (📞| 📝| Bewertung) 22:08, 18. Sep. 2017 (CEST)
    Finde ich auch. Die beiden on-wiki-Kernfunktionen des Bots sollten geschützt werden.
    Gestumblindi, kannst du bitte Benutzer:InternetArchiveBot/Dead-links.js unter Vollschutz zu stellen? Die Konfiguration wird nach dem MB für eine ganze Weile in Stein gemeißelt sein. Die einzige Änderung, die ich in absehbarer Zeit noch erwarte, ist der Hinweis, dass der Archivlink automatisch eingesetzt wurde. Dafür kann ein Admin den Schutz kurz aufheben. Anderenfalls haben wir dort ein relativ prominent ausgewiesenes Scheunentor für Vandalen.
    Cyberpower678, die run page sollte lokal in der deWikipedia vorhanden sein, wo wir genügend Leute haben, die Änderungen an der Seite beobachten und bei Bedarf eingreifen können. Ja, mindestens Sichterschutz ist erforderlich. Sichterrechte bekommst du hier: Antrag stellen. --Martina Disk. 07:23, 19. Sep. 2017 (CEST)
    @Martina Nolte: Vollgeschützt, danke auch für den Mail-Ping - das Anpingen hier muss mal wieder irgendwie untergegangen sein... Gestumblindi 21:28, 24. Sep. 2017 (CEST)

    Start angekündigt

    Ich habe jetzt mal den 1. Oktober als Starttermin für das Meinungsbild eingetragen. Kleinere Unklarheiten können wir in der Zwischenzeit sicher noch ausräumen. Gestumblindi 22:05, 17. Sep. 2017 (CEST)

    Lösungsansätze: „Bislang entschieden sich folgende Wikimedia-Projekte[...]“

    ... ist diese Darstellung nicht ein wenig unausgewogen? --Succu (Diskussion) 23:41, 17. Sep. 2017 (CEST)

    Wenn es Wikimedia-Projekte gibt, die sich ausdrücklich per Abstimmung o.ä. gegen einen Einsatz des Bots entschieden haben, kannst du diese gerne ergänzen, das wäre durchaus sinnvoll. Mir sind keine bekannt, aber vielleicht kann Cyberpower etwas dazu sagen. Gestumblindi 01:12, 18. Sep. 2017 (CEST)
    Bis jetzt bin noch keinen begegnet an irgendeiner Wiki.—CYBERPOWER (Diskussion) 01:53, 18. Sep. 2017 (CEST)

    Opt-out-Möglichkeiten

    Wer legt das Opt-out fest? Wenn ich nicht völlig falsch liege agieren wir hier eher nach dem Opt-In-Prinzip. --Succu (Diskussion) 23:52, 17. Sep. 2017 (CEST)

    Dem Vorschlag gemäß Portale, Redaktionen oder Hauptautoren, je nach Organisation im betreffenden Bereich.--Mautpreller (Diskussion) 12:03, 18. Sep. 2017 (CEST)

    Was genau ist einem Weblink-Bot erlaubt? --Succu (Diskussion) 00:20, 18. Sep. 2017 (CEST)

    Ich verstehe die Frage und deinen Edit nicht so recht. "Weblink-Bots" meint hier einfach Bots, die sich um Weblinks kümmern, nicht mehr und nicht weniger. Was ihnen erlaubt wird, wenn der Vorschlag angenommen wird, steht genau dort im Vorschlag. Wenn du dich aber aus irgendeinem Grund am Begriff "Weblink-Bots" störst, schreiben wir da halt einfach nur "Bots", was ich soeben getan habe. Gestumblindi 01:11, 18. Sep. 2017 (CEST)
    GiftBot und InternetArchiveBot werden als Beispiele für eine spezialisierte Form der Bots, die hier als Weblink-Bots bezeichnet werden, angeführt. Das Meinungsbild schlägt vor diesen bestimmte Spezialbearbeitungen zu erlauben. Welche Voraussetzungen müssen andere Bot-Betreiber erfüllen um in diese Klasse der Bots zu fallen? Ursprünglich drehte sich dieses Meinungsbild allein um den IA-Bot. --Succu (Diskussion) 20:24, 19. Sep. 2017 (CEST)
    Der Begriff Weblink-Bot ist aus dem MB-Text entfernt und ersetzt durch "geeignet". Es ging nie nur um den IABots (siehe oben die Diskussion mit Giftpflanze und der Vergleich mit dem Giftbot), sondern er war Anlass für das MB. Die Bedingung ("geeignet") für andere Bots ist, dass sie die umseitig im Vorschlag aufgeführten erlaubten Funktionen ausführen können (und die nicht erlaubten nicht ausführen). Und sie müssen für das Botflag wahrscheinlich einen Testlauf vorweisen - nehme ich an. --Martina Disk. 20:42, 19. Sep. 2017 (CEST)
    „Es ging nie nur um den IABots“: Doch, Martina. Dafür spricht auch die explizite Erwähung der Vorlagen {{Cbignore}}, {{Cbtalkonly}} und {{Cbnotalk}} als "opt-outs". Oder die langatmige Darstellung unter Funktionalitäten des InternetArchiveBots? --Succu (Diskussion) 00:10, 20. Sep. 2017 (CEST)
    Mir ist die praktische Bedeutung dieser Diskussion unklar, aber sei's drum: Die Entwicklung des MBs kann jeder oben selbst nachlesen.
    Siehst du ein Problem darin, in dem MB-Text den vollen Funktionsumfang eines Tools darzustellen, um dann daraus eine Auswahl zur Umsetzung vorzuschlagen? Ich nicht.
    Nochmal: Derzeit bietet nur dieser eine Bot die vorgeschlagenen Funktionen an. Wenn wir das "Luxusproblem" (Gestumblindi 16:42, 29. Jul. 2017) bekommen, dass mehrere Botbetreiber unsere Wünsche erfüllen: Gerne! --Martina Disk.

    Status quo

    Unter "Auswertung" heißt es: "Wird der Vorschlag nicht angenommen, bleibt es beim Status Quo." Was genau ist der Status quo? Nach meinem Eindruck eine eher informelle Übereinkunft (oder vielleicht: eine übliche Praxis), dass Bots, die tote Links suchen und Archivlinks vorschlagen, nicht in den Artikelnamensraum eingreifen (sondern nur auf Diskussionsseiten etc. melden). Ist das so korrekt?--Mautpreller (Diskussion) 11:54, 18. Sep. 2017 (CEST)

    Jau :-) Gestumblindi 13:08, 18. Sep. 2017 (CEST)
    Könnte man das im MB ergänzen? Vielleicht mit "übliche Praxis", da ich keinen derartigen Beschluss finden kann? Oder haltet Ihr das für überflüssig? Ich könnte mir vorstellen, dass die Leute wissen wollen, was für ein Status quo denn bei Ablehnung des Vorschlags gilt. Nur eine Idee, ich will hier nichts forcieren.--Mautpreller (Diskussion) 13:31, 18. Sep. 2017 (CEST)
    Ich frage mich, wie Du die informelle Übereinkunft (Status Quo) ergänzen möchtest, ohne sie formell festzuschreiben. Eine Feststellung der Art, dass bei Ablehnung Bots nicht im ANR editieren dürfen, lehne ich jedenfalls ab – unabhängig wie der konkreten Formulierung und möglichen Einschränkungen.
    Rein praktisch gesehen liefe eine Ablehung des Meinungsbildes lediglich darauf hinaus, dass der IABot in der deutschsprachigen Wikipedia nicht zum Einsatz kommt. (Und in der Konsequenz unsere Weblinks weiterschimmeln, Status Quo halt.) —MisterSynergy (Diskussion) 13:41, 18. Sep. 2017 (CEST)
    Ich weiß es auch nicht recht. Mir fiel eben auf, dass es gar nicht ganz klar ist, was eigentlich der Status quo ist. Wenn man unter "Aktueller Zustand" guckt (was ja logisch wäre), wird eigentlich so etwas wie eine bisher übliche Praxis beschrieben, nicht eine Übereinkunft irgendwelcher Art. Ist das ausreichend? Oder sollte man sagen: ... bleibt es beim Status quo, das heißt, die bisher übliche Praxis (siehe "Aktueller Zustand") wird fortgeführt? Oder noch kürzer: ... bleibt es beim Status quo (siehe "Aktueller Zustand")? Oder ist das überflüssig? --Mautpreller (Diskussion) 13:55, 18. Sep. 2017 (CEST)

    Genauer gesagt: Das Meinungsbild zielt ja darauf, einen Community-Beschluss zum Einsatz dieses (und evtl. anderer) Bots im ANR herbeizuführen. Bisher gibt es dazu keinen Community-Beschluss, es wird aber für angebracht gehalten, einen solchen herbeizuführen, weil das Thema das Bot-Einsatzes im ANR seit jeher strittig war und durchaus eine grundsätzliche Dimension hat. Dh der Status quo ist eigentlich ein nicht-normierter Zustand, in dem man aber üblicherweise auf einen Boteinsatz im ANR verzichtet, weil das voraussagbar Widerstand mit sich brächte. Einen nicht-normierten Zustand kann man nicht gut festschreiben. Deshalb die Idee, auf die übliche Praxis zu verweisen, und da das nicht ganz ohne ist, mit Verweis auf "Aktueller Zustand".--Mautpreller (Diskussion) 14:08, 18. Sep. 2017 (CEST)

    Das Meinungsbild zielt exakt darauf ab, geeigneten Bots zu erlauben Webarchivlinks in Einzelnachweisen im ANR anzubringen. Wie im Abschnitt Aktueller Zustand umseitig beschrieben, wird verschiedenen Bots derzeit erlaubt, im ANR zu arbeiten, auch an Weblinks. Dies ist der Status quo. Wo genau möchtest du einen Hinweis hierauf anbringen? Und warum? --Martina Disk. 03:37, 19. Sep. 2017 (CEST)
    Auswertung, Inhaltliche Abstimmung, letzter Satz: "Wird der Vorschlag nicht angenommen, bleibt es beim Status Quo." => "Wird der Vorschlag nicht angenommen, bleibt es beim Status quo (siehe "Aktueller Zustand"). Oder: "Wird der Vorschlag nicht angenommen, bleibt es beim Status quo, das heißt, die unter "Aktueller Zustand" beschriebene, bislang übliche Praxis wird fortgesetzt." Warum? Weil es für die Abstimmenden interessant sein könnte, wenigstens einen Hinweis darauf zu bekommen, was der Status quo ist. Mehr Klärung dürfte nicht möglich sein. Muss aber nicht sein. Mir fiel nur beim Lesen des Gesamttextes auf, dass ich danach nicht hätte sagen können, welcher Zustand bei Ablehnung eintritt ("Status quo"), wenn ich nicht das MB im Entstehungsprozess verfolgt hätte. Da die derzeitige Lage aber recht unscharf ist, bin ich nicht sicher, ob der Hinweis auf den "Aktuellen Zustand" wirklich was bringt, insofern könnte man es auch weglassen. Bitte zu bedenken, dies war als Frage an die Initiatoren und Unterstützer formuliert, ob so ein Zusatz Eurer Ansicht nach sinnvoll wäre. Wenn Ihr das verneint, kann es auch so bleiben.--Mautpreller (Diskussion) 10:19, 19. Sep. 2017 (CEST)
    Okay, verstanden, danke. Ich setze einen Link auf den aktuellen Zustand. --Martina Disk. 18:30, 19. Sep. 2017 (CEST)

    Übersetzungen

    False positives

    Hallo alle miteinander, ich habe mir die Zeit genommen alle Übersetzungen zu überarbeiten und ggf. zu überprüfen. (Dabei allgemein für MediaWiki.org die Bitte, nicht zu sehr am englischen Wortlaut festzuhalten, das Ergebnis ist dann für deutsche Leser unbefriedeigend…) Jetzt bräuchte ich noch jemand, der meine Anpassungen überprüft ;) Ich habe auch gerade auch mit TranslateWiki angefangen, aber das ist ein bisschen viel, da könnte ich durchaus Hilfe gebrauchen ^^ --MGChecker – (📞| 📝| Bewertung) 20:45, 19. Sep. 2017 (CEST)

    Ein Problem, auf das ich gestoßen bin: Wie übersetzt man "false positives" (Domains und URLs)/"false positive URLs" am besten? VErschiedene Möglichkeiten:
    • Falschpositive
    • falsch Positive
    • falschpositive URLs und Domains
    • falsch-positive URLs und Domains
    • falsch positive URLs und Domains
    Aktuell tendiere ich zum letzten, aber ich finde nichts so wirklich toll – und das sollte einheitlich sein. --MGChecker – (📞| 📝| Bewertung) 22:16, 19. Sep. 2017 (CEST)
    Ich schliesse mich an und würde auch den letzten Vorschlag nehmen. Nicht "wirklich toll" - aber geht. Gestumblindi 22:18, 19. Sep. 2017 (CEST)
    Jargon, der auch in Beurteilung eines binären Klassifikators nicht ganz einheitlich gehandhabt wird. --Succu (Diskussion) 22:45, 19. Sep. 2017 (CEST)
    +1. Falschpositiv führt zu einer Liste mit "Falsch positiv". :-) Ich habe beim Übersetzen durchgehend falschpositive gewählt, wie es auch hier auf der Seite benutzt wurde, kann aber auch mit anderen Schreibweisen leben. --Martina Disk. 03:42, 20. Sep. 2017 (CEST)
    Das mag nur mir so gehen, aber besonders schwer tu ich mich mit der substantivierten Form, die das Interface auf englisch verwendet. Ich würde die tatsächlich am liebsten völlig vermeiden. --MGChecker – (📞| 📝| Bewertung) 09:01, 20. Sep. 2017 (CEST)
    Nur zu. Ich finde alle deine bisherigen Änderungen gut. Also mach einfach. :-) --Martina Disk. 20:22, 20. Sep. 2017 (CEST)
    Dann geh ich, wenn der Rest geklärt ist, alle Nachrichten, die "false positive" enthalten, noch mal durch und vereinheitliche und korrigiere die Übersetzungen. --MGChecker – (📞| 📝| Bewertung) 22:37, 20. Sep. 2017 (CEST)
    Ich vermute mal falsche Richtige kommt nicht in Betracht? ;) --Succu (Diskussion) 23:17, 20. Sep. 2017 (CEST)
    Schließlich schreiben die Amerikaner auch nicht false right ones :P --MGChecker – (📞| 📝| Bewertung) 15:35, 21. Sep. 2017 (CEST)

    Englische Wörter

    @Martina Nolte, MGChecker: Müssen denn solche englischen Wörter wie „Interface“, „ID“ oder „Theme“ wirklich sein? --\m/etalhead 16:47, 20. Sep. 2017 (CEST)
    Jein. Wir können stattdessen gerne Schnittstelle, (Auftrags-)Nummer und Farbschema sagen. Ich dachte, das wär auch teilweise schon so. Ich habe an manchen Stellen beides eingesetzt. Interface ist schon eingedeutscht, oder? --Martina Disk. 20:18, 20. Sep. 2017 (CEST)
    @Martina Nolte: Man sollte sich schon auf eine Variante einigen. --\m/etalhead 20:52, 20. Sep. 2017 (CEST)
    Man sollte sich auf eine Variante einigen, aktuell dürfte es aber auch konsequent sein. Ich habe mich mit dieser Frage tatsächlich auch beschäftigt, und bin zum Schluss gekommen, dass wir die aus dem Englischen entlehnte Variante, die sich bis auf Theme auch im Duden findet [9][10], verwenden sollten, wenn sie die gebräuchliche und leichter verständlichere Variante darstellt. Wir schreiben ja schließlich auch Internet und nicht Internetz.
    Zu den Einzelfällen:
    • Schnittstelle ist wirklich kein Wort, was der Deutsche täglich verwendet, und Google findet Interface auch doppelt so häufig allein auf deutschen Seiten. Ich halte es daher für gebräuchlicher und leichter verständlich.
    • Für Leute, die dieses Tool benutzen, also zumindest einen gewissen technischen Hintergrund haben, halte ich ID für deutlich sprechender, klarer und aussagekräftiger als Nummer.
    • Der Begriff Theme ist nicht gleichzusetzen mit dem Wort Farbschema. Ein Farbschema verändert allein die Farbe, während ein Theme auch ein Layout verändern kann. Deswegen habe ich mich dafür entschieden, das wörtlich wiederzugeben. Das Wort ist zudem im deutschen Sprachraum ebenso bekannt.
    Natürlich kann man über das alles reden, aber ich wollte zumindest mal die Hintergründe meiner Entscheidungen darlegen. Wichtig ist mir, dass wir uns auf eine einheitliche Variante festlegen. Auf die aktuellen Klammervarianten würde ich allerdings auf jeden Fall verzichten, die ziehen sich nämlich in der Praxis ziemlich in die Länge. --MGChecker – (📞| 📝| Bewertung) 22:37, 20. Sep. 2017 (CEST)
    Ich würde Anglizismen auch nicht auf Teufel komm raus vermeiden. Wo sie treffend und eingebürgert sind, kann man sie verwenden. Gestumblindi 22:39, 20. Sep. 2017 (CEST)
    Im Microsoft-Deutsch wird „Theme“ mit „Design“ (z.B. in Office) übersetzt. --Succu (Diskussion) 23:05, 20. Sep. 2017 (CEST)
    Mit Design könnte ich gut leben. --MGChecker – (📞| 📝| Bewertung) 15:35, 21. Sep. 2017 (CEST)
    Wobei Interface, ID oder Theme natürlich nur Beispiele sind. Man könnte die Liste noch fortführen. --\m/etalhead 18:38, 21. Sep. 2017 (CEST)
    Ja, bitte. Ich guck mir das gerne an. Die Übersetzung hat natürlich den Sinn und Zweck, die Texte zu übersetzen. Teilweise gibt es keine andere deutsche Entsprechung (Bot); teilweise ist das englische Wort gängiger (Software, Design). Also, welche englischen Wörter möchtest du durch welche deutschen ersetzt sehen? --Martina Disk. 20:33, 21. Sep. 2017 (CEST)

    Weitere offene Fragen

    Weitere Fragen und Feststellungen zur Übersetzung:

    • Die Schreibung von „E-Mail-Adressen“ habe ich explizit geprüft. Das schreibt man im Deutschen wirklich so, alles andere ist scheinbar Umgangssprache.
    • Weiß jemand zufällig, wofür {{locale}} steht? Das lässt mich auch etwas fragend zurück… Ich habe eine gewisse Vermutung, es könnte sich um eine Zeitspanne handeln, bin mir aber nicht sicher.
    • Für was verwenden wir „Link“ hier als Synonym? Steht „Link“ für URLs und Domains oder nur für URLs?

    Alles in allem kommen wir aber sehr gut voran. Gestern Mittag waren noch 25 % der Nachrichten geprüft, nun sind es über 85 %. Da ist es ganz normal, dass am Ende ein paar Knacknüsse übrig bleiben. --MGChecker – (📞| 📝| Bewertung) 22:37, 20. Sep. 2017 (CEST)

    locale ist das Gebietsschema. --Succu (Diskussion) 23:07, 20. Sep. 2017 (CEST)
    Toll wäre jetzt noch, die Bedeutung im Kontext der die Variable verwendenden Nachrichten spezifisch zu verstehen, so viel war mir auch klar. Möglicherweise handelt es sich um die Sprachversion? --MGChecker – (📞| 📝| Bewertung) 01:46, 21. Sep. 2017 (CEST)
    Ich hab dann jetzt auch die letzten Emailadressen in E-mail-Adressen geändert. :-)
    Können wir uns darauf einigen, wenigsten am Anfang klarzustellen: "IABot-Management-Interface (Schnittstelle zur Verwaltung des InternetArchiveBots)" und vielleicht auch dort, wo der Platz den erklärenden Hinweis erlaubt? Wie gesagt, ich halte Interface für einen inzwischen deutschen Begriff, aber "Schnittstelle zur Verwaltung des InternetArchiveBots" erklärt die praktische Funktion. Das fände ich gut.
    Nicht vergessen: Cyberpower spricht und schreibt deutsch. Er kann für fragliche Begriffe auch eine Übersetzung anbieten bzw. zur Klärung beitragen. Auf Phabricator hat er ja recht schnell geantwortet. Da steht jetzt seine Frage unbeantwortet, ob es noch weitere Fragen gibt... --Martina Disk. 04:16, 21. Sep. 2017 (CEST)
    PS: Was ist der Alternativvorschlag für Auftragsnummer ("job ID")? Wenn's geht, bitte nicht Auftrags-ID. --Martina Disk. 06:01, 21. Sep. 2017 (CEST)
    Für einen Moment hatte ich ja tatsächlich die Befürchtung, du hättest überall E-mail-Adressen geschrieben :x In diesem Fall wäre ich mit Auftragsnummer total einverstanden. Ansonsten: Erklärt IABot-Management-Interface als Interface zum Management des IABots nicht auch die praktische Funktion? Ich hielte das gerade im Seitentitel dann doch eher für unschön, außerdem würde ich mich von diesen Klammervariantzen irgendwie als für dumm verkauft vorkommen… 3M? --MGChecker – (📞| 📝| Bewertung) 15:35, 21. Sep. 2017 (CEST)
    Ich sehe jetzt auch nicht unbedingt Bedarf, überall wo im Englischen nur "interface" steht, im Deutschen den vollständigen Namen auszuschreiben. --MGChecker – (📞| 📝| Bewertung) 15:37, 21. Sep. 2017 (CEST)
    Und was war da der Hintergedanke? --MGChecker – (📞| 📝| Bewertung) 15:39, 21. Sep. 2017 (CEST)
    Ich glaube nicht, dass jeder zwingend weiß, was ein Interface ist Daher würde ich in den Fließtexten ruhig mal beide Formulierungen anbieten. Muss aber natürlich nicht, falls dich dass ernsthaft stört.
    "all URLs, new and existing" betont alle. Das wollte ich sichtbar machen. Aber nochmal. Wenn es dich stört : nur zu. --Martina Disk. 20:27, 21. Sep. 2017 (CEST)
    PS bzgl. E-mail: ?? Ich hatte zuletzt die verbliebenen Emailadressen in die von dir favorisierte Version E-Mail-Adressen geändert. Das war, was du wolltest oder?
    Ja, alles okay, ich hatte mich hier darauf bezogen, was du hier geschrieben hattest. Mit ist klar, dass du „alle“ hervorheben wolltest, aber warum mit Tags statt mit den zwei ' wie sonst überall?
    @User:MGChecker: Die zwei '' sehen im Interface wie " aus. Sie setzen den Text nicht kursiv. Die Wikiformatierung funktioniert dort offenbar nicht, sondern anscheinend muss html-Code veredent werden. Daher das <i> . Zum Beispiel auch hier (da hab ich jetzt auch '' durch <i> ersetzt.
    Dann müssen wir aber überall die beiden Striche durch i-Tags ersetzen, das dürfte ca. 40-80 Nachrichten betreffen. --MGChecker – (📞| 📝| Bewertung) 15:28, 22. Sep. 2017 (CEST)
    Ist jetzt wieder gekürzt. Alles gut. --Martina Disk. 20:58, 21. Sep. 2017 (CEST)
    @Martina Nolte: Wie wäre es da mit?—CYBERPOWER (Diskussion) 21:08, 21. Sep. 2017 (CEST)
    Ich glaube ja, es gibt mehr Leute, die Schnittstelle nicht verstehen, als solche, die das umgekehrte Problem haben. Für den konkreten Fall des Titels gerade wäre „IABot-Veraltungsinterface“ IMHO eine Option. --MGChecker – (📞| 📝| Bewertung) 21:28, 21. Sep. 2017 (CEST)
    Klasse! --Martina Disk. 03:33, 22. Sep. 2017 (CEST)

    gelöst

    Scheint als wären alle außer einem Begriff gelöst. Sonnst bitte einfach nochmal Bescheid sagen. Danke. --Martina Disk. 05:25, 22. Sep. 2017 (CEST)

    englisch deutsch
    false positive falsch positiv
    email address E-Mail-Adresse
    job ID Auftragsnummer
    queue Warteschlange
    IABot Management Interface IABot-Verwaltungsinterface
    locale magisches Wort für das betreffende Wikimedia-Projekt
    theme Design
    Diese paar werden noch als ungeprüft behandelt. Kann da bitte nochmal jemand drauf schauen und den Haken setzen? Danke für all die Hilfe! --Martina Disk. 15:38, 22. Sep. 2017 (CEST)
    Ich fürchte, dass werden zwischen durch noch mal wieder mehr werden, wenn ich die Übersetzungen von fals positive und Interface noch mal durchgegangen bin. Das Problem bei locale ist: Ich weiß, dass es ein magisches Wort auf TranslateWiki ist, aber ich verstehe nicht, was sein Inhalt ist. @Cyberpower678: ? --MGChecker – (📞| 📝| Bewertung) 15:59, 22. Sep. 2017 (CEST)
    Ui. Das Interface ist gross, da musst du mir mal ein Link geben.—CYBERPOWER (Diskussion) 17:02, 22. Sep. 2017 (CEST)
    @Cyberpower678:: Für mich klingt das richtig. Diese Zusammenfassung sollte angezeigt werden, wenn das Folgende der Fall ist: The URL http://www.sitedevolubilis.org/ has been reported as false positive. --Martina Disk. 02:49, 23. Sep. 2017 (CEST)
    Erledigt. Gemeint ist locale im Kontext von „You have been blocked on the interface for the Vorlage:Locale by <a href="Vorlage:Actionuserlink">Vorlage:Actionuser</a>.“ --MGChecker – (📞| 📝| Bewertung) 01:39, 23. Sep. 2017 (CEST)
    @Martina: Das ist ein Logbucheintrag. Das soll doch in der Vergangenheit sein, aber Ok. @MGChecker: Ah. Fuer Locale kommt da entweder "English Wikipedia" oder "Deutschsprachige Wikipedia" herein.—CYBERPOWER (Diskussion) 02:55, 23. Sep. 2017 (CEST)

    PS, nochmal an @Cyberpower678:: Ja, "gemeldet" is "reported" (Vergangenheit). Alles gut. Ich hab aber noch eien Frage: Job god powers wird derzeit übersetzt als Superkräfte des Auftrags. ?? Was bedeutet Job god powers? --Martina Disk. 03:00, 23. Sep. 2017 (CEST)

    Bei genauerer Betrachtung war das zwar sinngemäß nicht falsch, aber nicht, dass was im Englischen da stand. Ist jetzt korrigiert und von Martina geprüft. --MGChecker – (📞| 📝| Bewertung) 01:20, 24. Sep. 2017 (CEST)
    Da viel mir nichts besseres dazu ein. :p Das ist eine Tabelle Zeile-titel. Da bestehen Knoepfe wo man Auftrag aus/einsetzen kann, oder abbrechen kann. Als Interface Root habe ich die Optionen andere Aufträge zu kontrollieren.

    CYBERPOWER (Diskussion) 04:39, 23. Sep. 2017 (CEST)

    Aha! In die Admin-geschützten Bereiche kommen wir Normalübersetzer ja nicht rein. Jetzt sehen wir endlich mal, wo die ganzen Textschnipsel landen. :-) War teilweise echt nicht einfach ohne Kontext die exakte Bedeutung zu verstehen. Gut, dass du Deutsch kannst und weißt, was wir sagen wollten. :-))) Da für dich ganz allein, darf ich dann bestimmt auch einfach mal dies. ;-) --Martina Disk. 06:40, 23. Sep. 2017 (CEST)
    HAHA. Aber irgendwann muss ich mal ein Deutschsprechender Tool Root geben. ;-) Plus, Superkräfte des Auftrags klingt viel Kooler. :D—CYBERPOWER (Diskussion) 14:25, 23. Sep. 2017 (CEST)
    "Superkräfte des Auftrags" ist allerdings sprachlicher Unfug. Der Auftrag hat ja eben keine Superkräfte, sondern der Root hat das übergeordnete Sagen über Aufträge anderer Benutzer. Ganz humorfrei könnte man es vielleicht beschreiben als "Überschreibe Aufträge (Superuser-Recht)" --Martina Disk. 17:06, 23. Sep. 2017 (CEST)
    @Martina Nolte: Na ja, Auftragsstatus modifizieren träfe es wohl besser, du überschreibst ja nicht den Auftrag selbst. Ich würde allerdings dafür plädieren, eine einfachere Überschrift zu wählen, die dem Sinn im Englischen mehr entspricht, und zwar „Superuser-Operationen“, das habe ich jetzt mal vorläufig eingetragen. Wenn du jetzt meine Edits alle überprüfen solltest, wären alle Nachrichten des Bots übersetzt und überprüft, was echt ein krasser Status wäre. Was wir allerdings noch klären sollten, ist warum da in den Nachrichten 2 ' sind, wenn die vom Parser nicht zu Kursivität ausgewertet werden.
    @Cyberpower678: OT: Ich würde gerne mal drei Fragen zum Rechtesystem loswerden:
    1. Erfordert die admin-Permission tatsächlich Admin-Rechte und (Registrierung vor März und 6000 Edits) oder nur eine dieser beiden Bedingungen? Falls ja, würde ersteres nicht ausreichen?
    2. Gibt es irgendwo eine Liste aller auf dem Tool aktiver Nutzer, die einer Rechtegruppe angehören? Gerade für root und admin wär das interessant.
    3. Gibt es auch globale Gruppen oder können global nur einzelne Rechte vergeben werden?
    (Ich hatte schon immer ein merkwüriges Interesse an Rechtesystemen…) Dann habe ich noch einige konkrete Vorschläge für den Bot:
    1. Der Sprachname sollte nicht auf Englisch, sondern in der jeweiligen Sprache aufgeführt sein.
    2. Wäre es nicht völlig unproblematisch, das Tool für alle Wikis zu aktivieren und nur submitbotjobs erst bei Wiki-Konsens zu aktivieren?
    --MGChecker – (📞| 📝| Bewertung) 01:20, 24. Sep. 2017 (CEST)
    1. Ja. Admins müssen beide Bedingungen erfüllen um ein Tooladmin zu werden.
    2. Nein gibt es nicht. Durch Technischelimitationen kann die Liste nicht generierte werden. Es gibt nur 5 roots.
    3. Ja es gibt globale Gruppen. Die können aber nur Roots hinzufügen.
    4. ????
    5. Doch das waere problematisch. IABot muss erst die Wikis unterstützten.
    CYBERPOWER (Diskussion) 01:35, 24. Sep. 2017 (CEST)
    @Cyberpower678: Zu Frage #4: Auf der Startseite des IABot-Verwaltungsinterfaces wird die Liste der verfügbaren Wikipedia-Sprachversionen per default auf Englisch angezeigt; also nicht in deren jeweils eigener Sprache. Wenn ich die deutschsprachige Wikipedia auswähle, kriege ich die anderen Wikipedien mal in Englisch, mal in Deutsch angezeigt. Darauf wollte MGChecker wohl hinweisen. (Ich bin ganz froh, dass es englisch oder deutsch ist; sonst würde ich manche Sprachen nicht erkennen können.)
    @MGChecker: Ich hab die doppelten Apostrophe ('') jetzt durch <i>...</i> ersetzt. Du müsstest wohl nochmal die Haken setzen, um 100% zu kriegen. High five! :-) --Martina Disk. 06:30, 24. Sep. 2017 (CEST)
    @Martina Nolte: Done. Eine Nachricht steht jetzt noch aus, wo ich typographisch korrekte Anführungszeichen eingefügt habe. --MGChecker – (📞| 📝| Bewertung) 15:27, 24. Sep. 2017 (CEST)

    Wieso werden die Korrekturen und überprüften Änderungen nicht im Interface angezeigt? --Martina Disk. 07:36, 27. Sep. 2017 (CEST)

    erledigtErledigt Alle Übersetzungen sind jetzt live. :-) --Martina Disk. 04:42, 30. Sep. 2017 (CEST)

    Rechteverwaltung

    @Cyberpower678:
    1. Sind die globalen Gruppen die gleichen wie die lokalen?
    2. Warum müssen Admins diese beiden Bedingungen erfüllen, um Tool-Admin zuwerden?
    3. auch @Martina: Du musst auch nicht erkennen können, wie du die Oberfläche auf Chinesisch umschaltest, ein Chinese sollte das aber erkennen können. Dafür ist der englische Sprachname nicht ganz optimal. Ich würde daher die Namen alphabetisch geordnet und in Landessprache wählen – genau wie die Interwiki-Links auf Wikipedia.
    --15:27, 24. Sep. 2017 (CEST)
    1. Ja.
    2. Die Logik dahinter ist das durch viele Bearbeitungen gibt es ein Gefühl für Verantwortlichkeit, und reduziert die Wahrscheinlichkeit von Missbrauch.
    CYBERPOWER (Diskussion) 16:57, 24. Sep. 2017 (CEST)
    Ich würde auch erstmal auf Nummer sicher gehen. Nach ein bisschen mehr Erfahrungen mit dem Bot kann man sicher später noch über das Rechte-Manager sprechen. Es sollte ja auch noch weitere "Roots" geben. Das wäre auch allein wegen der Zeitverschiebung wirklich sinnvoll.
    MGChecker, alle Übersetzungen sind geprüft. Danke nochmal für deine Hilfe!! --Martina Disk. 18:05, 24. Sep. 2017 (CEST)
    Gern geschehen! Wir sprechen hier aber gerade von Missbrauch durch Admins... --MGChecker – (📞| 📝| Bewertung) 23:17, 24. Sep. 2017 (CEST)
    Ich glaube, es geht weniger um absichtlichen Missbrauch, sondern um versehentliche Fehlnutzung. Wir haben reichlich viele Admins, die die Bedingungen erfüllen. Insofern mach ich mir darüber im Moment keine Sorgen. Langfristig sollte aber die Rechteverwaltung an unsere Gepflogenheiten angepasst werden. Ich glaube, da sind wir uns einig. Ebenso hätte ich gerne, dass die Deaktivierung durch einen hiesigen Admin auf deWP möglich ist, falls der Bot mal Mist bauen sollte. Derzeit ist das Abschalten nur auf enWP möglich. Wir könnten diese beiden Änderungen (Rechte auf dem Inteface, Abschaltknopf lokal) als Bedingungen in das MB schreiben. Was würdet ihr davon halten? @Cyberpower678, MGChecker, Gestumblindi: --Martina Disk. 07:51, 26. Sep. 2017 (CEST)
    Am liebsten wäre mir hier sogar Sichterschutz. Ich hielte das auch für ne gute Idee, aber einerseits müsste man das erst mit Cyberpower abklären und andererseits wird die Zeit langsam knapp. --MGChecker – (📞| 📝| Bewertung) 23:28, 26. Sep. 2017 (CEST)
    "und andererseits wird die Zeit langsam knapp" - naja, falls das tatsächlich so sein sollte, dann verschiebt ihr eben den Starttermin noch entsprechend - besser, das Ding ist eurer Ansicht nach wirklich abgeschlossen vorbereitet - vielen Dank übrigens an alle Beteiligten für das Engagement! --Rax post 00:57, 27. Sep. 2017 (CEST)
    <-----MGChecker, was meinst du mit "Sichterschutz"? (wo und wofür?) Und was genau müssen wir erst mit Cyberpower abklären? Ich verstehe außerdem noch nicht, warum diese Frage uns in Zeitnot bringen würde. Ich finde wir können die Frage der Adminrechte und Abschaltkontrolle einfach entscheiden und ins MB aufnehmen, falls wir das wollen. Meiner Meinung nach legt die Community anbieterunabhängig fest, was sie will - und das kann eine Abschalt- und Kontrollmöglichkeit durch lokale Admins beinhalten - und im nächsten Schritt sehen wir, wer diese Funktionen anbietet. Rein technisch muss meinem Verständnis nach die Abschaltungfunktion nicht auf enWP angesiedelt sein, sondern ist schlichtweg für den Botbetreiber praktischer als eine Seite im lokalen Wiki und erlaubt außerdem eine nette Schnellübersicht. Das überzeugt zumindest mich nicht davon, dass unsere Admins keine Abschaltmöglichkeit haben sollten. Sollte der Bot mal Mist bauen, was wohl selbst beim besten Programm mal vorkommt, bräuchten wir derzeit einen benachbarten Kollegen oder einen Bürokraten, der den Bot abschaltet oder ihm wenigstens das Botflag wegnimmt. Das halte ich für keine sichere Lösung. Ich würde deshalb in das MB aufnehmen wollen, dass lokale Admins eine Möglichkeit bekommen müssen, den Bot bei Bedarf lokal abzuschalten.
    In Bezug auf den Zugriff auf ToolLabs würde ich die Adminfrage hingegen nicht so hoch ansetzen. Wir verlangen auch bei anderen Toolbetreibern nicht, dass unsere Admins weitgehende Kontrolle bekommen. Und wir übertragen normalerweise auch keine externen Aufgaben an unsere Admins ohne deren breite Einwilligung. Solange unsere Admins den Bot hierzuwiki abschalten können, sind wir m.E. ausreichend abgesichert.
    Prinzipiell stimme ich mit Rax überein: Der Starttermin ist nicht in Stein gemeißelt. Ich würde gerne alle offenen Fragen geklärt wissen. Für mich persönlich ist die Abschaltfrage ein zentrales Sicherheitselement. Wenn ich damit alleine bin: Okay, dann lassen wir es so. Wenn ihr es aber ähnlich seht wie ich, dann sollten wir den MB-Text nochmal entsprechend anpassen. Ich bitte jetzt nochmal um Feedback: @Cyberpower678, MGChecker, Gestumblindi: --Martina Disk. 04:31, 27. Sep. 2017 (CEST)
    Zeitnot, weil ein Starttermin feststeht und es schlechter Stil ist, einen solchen zu verschieben - möglich ist es alle Mal. Ich würde allerdings befürworten, wenn alle Sichter (Stichwort Sichterschutz) den Bot deaktivieren könnten. Enwiki-Privilegierte ist jedenfalls ein No go. Wenn Cyberpower unter diesen Bedingungen nicht mehr bereit ist, seinen Dienst anzubieten, erledigt sich diese Frage aber von allein. Deshalb sollte man sie erstmal abklären. --MGChecker – (📞| 📝| Bewertung) 12:13, 27. Sep. 2017 (CEST)
    @Martina Nolte: Ich denke, dass diese mehr technischen Fragen nichts mit der Grundsatzfrage zu tun haben, um die es im Meinungsbild geht, und daher auch nicht in dieses aufgenommen werden sollten. Wir können das hier in dieser Diskussion oder auch später noch klären. Wenn der Boteinsatz im Meinungsbild angenommen werden sollte (und es wird ja zwei Wochen dauern), muss man den Bot nachher auch nicht sofort anwerfen, da besteht doch gar kein Druck oder gar Zwang. Ich würde daher auch den Starttermin nicht mehr ändern. Gestumblindi 12:20, 27. Sep. 2017 (CEST)
    @Gestumblindi, MGChecker, Cyberpower678:: Jeder Botanbieter muss ja auch noch das Botflag beantragen, und ich nehme sehr stark an, dort wird die Frage nach der Notfallabschaltung auch noch aufkommen. Insofern mag das hier wirklich überflüssig sein. --Martina Disk. 16:36, 27. Sep. 2017 (CEST)
    Ich wäre einverstanden, ich habe keine Lust, dass es später Hickhack gibt, weil in einer geänderten Situation diese Bedingung nur noch in abgewandelter Form erfüllt ist. Wie wir alle wissen, können Wikipedianer dann nicht tun, was vernünftig ist, oder zu einem Konsens kommen, sondern müssen gleich ein neues MB basteln und totdiskutieren. --MGChecker – (📞| 📝| Bewertung) 21:31, 27. Sep. 2017 (CEST)
    @all, @Cyberpower678, MGChecker, Gestumblindi: Ich hatte einen kurzen Emailaustausch mit Cyberpower. Es liegen offenbar mehrere Missverständnisse vor. Ich ging bzw. wir gingen wohl alle davon aus, dass die Abschaltung auf enWP nur für Admins zugänglich ist. Das ist nicht der Fall. Die Seite ist (nach Freischaltung für das Projekt) für jeden Benutzer bearbeitbar. Das heißt, sogar IPs können den Bot bei Bedarf abschalten. Cyberpower ging davon aus, dass wir die Abschaltung nur hiesigen Admins erlauben wollen und findest das zu restriktiv. Verständlich. Aber das ist ja auch nicht der Fall.
    Ich vermute, dass wir als Community die Abschaltung am ehesten passiven oder aktiven Sichtern erlauben würden (nehme ich jetzt einfach mal an; ganz genau kenne ich die Kriterien für das Botflag nicht). Nur zur Info. Entschedungsbedarf sehe ich jetzt aktuell nicht. Cyberpower, es wäre aber sicher nett von dir zu wissen, ob du grundsätzlich bereit bist, die Abschaltung lokal einzurichten. --Martina Disk. 21:37, 30. Sep. 2017 (CEST)
    Die ausschalt Mechanismen sind eine Globale Funktion von IABot. Eine extra Schalter fuer dewiki braucht extra Arbeit, aber kann sich machen lassen.—CYBERPOWER (Diskussion) 21:42, 30. Sep. 2017 (CEST)
    Danke, das ist gut zu wissen! Ob das überhaupt notwendig sein wird, wird sich wohl im Rahmen des Botfalgantrags klären. Also investiere keine Zeit vorab und genieße einfach das Wochenende. :-) --Martina Disk. 21:58, 30. Sep. 2017 (CEST)
    Dann wäre diese offene Frage auch zufriedenstellend geklärt.  Info: Es würden bei uns auf jeden Fall aktive Sichter, passive Sichter haben keine eigene Seitenschutzstufe (und das ist auch gut so). --MGChecker – (📞| 📝| Bewertung) 22:42, 30. Sep. 2017 (CEST)

    Noch ein Contra Argument

    Bin leider gerade erst auf dieses MB gestoßen. Meine erste gefühlte Reaktion war durchaus positiver Einstellung gegenüber eines Bots, der nicht mehr erreichbare Original-Hyperlinks durch archivierte Versionen ersetzt oder ergänzt. Denn ein nicht erreichbarer Link ist nicht all zu viel wert. Er lässt lediglich mit erhöhter Wahrscheinlichkeit vermuten, dass sich der Autor eines Beitrags diesen nicht aus den Fingern gesaugt hat sondern eine (hoffentlich) reputable Internet-Quelle dahinter steht. Ansonsten, war es nötig, sich auf die Suche nach Ersatz zu begeben, z.B. bei Linkfix-Versuchen oder jemand wollte es tatsächlich genau wissen. Beides traf bisher des Öfteren auf mich zu. Dabei stellte sich in vielen Fällen heraus, das der fragliche Link nicht gänzlich unerreichbar war, sondern auf der Website des Anbieters im Rahmen einer Umstrukturierung oder (aufrufbaren) Archivierung nur verschoben wurde. Oder es ließen sich andere Quellen gleicher, z.T. sogar besserer Güte finden, während die z.B. bei archive.org archivierte Version deutliche Mängel aufwies. Diese sind z.B., dass sich auf der ehemaligen Originalseite lediglich ein kurzer einführender Abschnitt befand zu dessen Fortsetzung intern weiter verlinkt wurde. Dieser einführende Abschnitt wurde nunmehr archiviert, der weiterführende Haupttext aber nicht. Weiterhin kommt es auch sehr häufig vor, dass bei archivierten Seiten eingeblendete Fotos, Grafiken und Diagramme aus der Originalversion nicht mehr sichtbar sind. (Keine Ahnung warum). Außerdem scheint archiv.org auch keine PDFs zu speichern. Diese sind jedoch oft wesentlicher Bestandteil eines Website-Inhalts, aber von der archivierten Website aus nicht mehr zugänglich. Aus diesen Gründen ist eine archivierte Website oft nur zweite Wahl und Plan B. Stellt ein Bot nun eine solche archivierte Fassung bereits als Alternative im Artikel zur Verfügung, wirkt das vermutlich wie ein sanftes Ruhekissen zur Gewissensberuhigung (…es wurde ja schon was unternommen…) und dürfte somit den Anreiz und das Engagement etwas besseres zu finden deutlich schmälern.--Ciao • Bestoernesto 17:03, 30. Sep. 2017 (CEST)

    Ja, diese Sorge wurde auch oben geäußert und steht in den Kontra-Argumenten: "es ist zu befürchten, dass die Archivlinks, ob geeignet oder ungeeignet, einfach ungeprüft im Artikelnamensraum stehen bleiben; möglicherweise „für immer“." --Martina Disk. 17:21, 30. Sep. 2017 (CEST)

    Archiv?

    Werden die Diskussionen zur Vorbereitung des MBs beim Start ins Archiv verschoben? Falls ja: Wer macht's? --Martina Disk. 03:40, 30. Sep. 2017 (CEST)

    Ja, ich habe vor, das zu machen - so wie damals auf Wikipedia Diskussion:Meinungsbilder/Admin-Wiederwahl 3. Gestumblindi 13:39, 30. Sep. 2017 (CEST)
    Prima, danke. --Martina Disk. 17:27, 30. Sep. 2017 (CEST)
    Wobei ichs besser gefunden hätte, wenn es mit WL verschoben worden wäre, aber egal jetzt. Archivhinweis oben ergänzt - good luck! --Rax post 00:13, 2. Okt. 2017 (CEST)