Benutzer Diskussion:Flominator/Contexter
Bitte Fehlerberichte, Anregungen etc. zukünftig auf GitHub posten: https://github.com/FlominatorTM/wikipedia_contexter/issues
- todo: Weiterleitungen erfassen
verbesserungsvorschlag
[Quelltext bearbeiten]cooles tool, dazu ein dreister verbesserungsvorschlag: es müsste doch möglich automatisch den besten link vorzuschlagen (im "Kevin Costner"-abschnitt steht "film", also Filmproduzent, bei "Marktwirtschaft" steht "güter" als Produktion). wenn das tool dann noch als parameter zwei seiten nimmt (1: verlinkende seite, 2: BKL-seite) könnte ich genial aus meinem autoreviewer drauf verlinken.
hmmm, das "Computerspiel" würde bei Musikproduzent landen aber ist ja nur ein vorschlag und für den gibt's ja auch keinen richtigen. --Rupp.de 00:22, 12. Jun. 2007 (CEST)
- Danke für das Lob. Sehr interessante Idee, die du da hast. Was für einen Algorithmus schlägst du vor? --Flominator 15:26, 12. Jun. 2007 (CEST)
ich nehm mal den link zu produzent in kevin costner als beispiel:
- alle wörter in dem abschnitt aus http://wikipedia.ramselehof.de/contexter.php?article=Produzent in einer liste zählen (abzüglich eckige klammer, usw. ), also sagen wir 10 zeilen drüber und drunter um dem link zu produzent.
- in produzent dann bei allen wilinks darin schauen, ob eins der wörter drin vorkommt (case ignore) und pseudo-wahrscheinlichkeit dieses wikilinks um "die anzahl des worts in kevin costner * 2" erhöhen.
- in produzent in allen zeilen schauen ob eins der wörter drin vorkommt und dann bei allen wikilinks in dieser zeile die pseudo-wahrscheinlichkeit um "die anzahl des worts in kevin costner * 1 " erhöhen (gleiches wort in der zeile zählt nicht so viel wie im link)
- wenn kein link pseudo-wahrscheinlichkeit > o hat 20 zeilen drüber und drunter nehmen und nochmal von vorn
- links in reihenfolge der pseudo-wahrscheinlichkeit rauswerfen
müsste ganz gut klappen, bin mal ein paar links im kopf durchgegangen. --Rupp.de 00:07, 13. Jun. 2007 (CEST)
Unicode
[Quelltext bearbeiten]- http://wikipedia.ramselehof.de/contexter.php?article=Kalendertag&limit=20
- .. das ist ein redir auf Tag, und das tool wertet diesen artikel auf
- 丁髷 ist ein redir auf Chonmage
- http://wikipedia.ramselehof.de/contexter.php?article=丁髷&limit=20
- link: http://wikipedia.ramselehof.de/contexter.php?article=%E4%B8%81%E9%AB%B7&limit=20
- titel: Contexts for 丁髷 - mit validem link
das tool hängt sich aber auf, scheint also ein unicode-umsetzungsproblem zu sein..
der grund warum ichs ausprobiert hab ist folgender: damals im Wikipedia:Meinungsbilder/Originalschreibungen haben wir uns am ende darauf geeinigt, dass eine kontrollierte anzahl an redirs mal getestet werden sollte, siehe Alle Seiten von Ω (kyrillisch, arabisch) bzw Alle Seiten von 〡 ( «1» japanisch, chinesisch, koreanisch) - damals hab ich ein tool vorgeschlagen, das testet, ob der redir auch wirklich dorthin zielt, wo er hinzielen soll - die meisten ablehner hatten ja bedenken, dass in der arabischen fassung des namens des amerikanischen Präsidenten ein link auf was böses steht, was ja natürlich ganz daneben ist, weil wir ihn nie auf arabisch führen werden, aber bei anderen themen nicht von der hand zu weisen
und wenn ich das recht verstanden hab, wäre das hier genau das: also wie wärs mit einer option, redirs nicht nachzuverfolgen - weil ein redir nur auf eine seite zeigt, müsste der kontexter also sofort sagen, ob die originalschreibung auch wirklich im zielartikel steht. da in Chonmage auch wirklich 丁髷 steht, stünde dann [edit] ; [[Chonmage]]: Ein '''Chonmage''' ([[Japanische Schrift|jap.]] 丁髷) ist ein traditioneller [[japan]]ischer...
was täte er, wenn er es nichts fände? dann könnte er alarmschlagen: "Der Artikel ist auf allen verlinkten Seiten in keinem Kontext erwähnt" - bei einem redir wäre das ein eindeutiger befund (bei einem anderen artikel zumindes ein warnsignal, dass mit der einbettung was nicht in ordnung ist..)
zusammen mit WhatRedirectsHere von Tangotango wäre er dann perfekt, um redirs in beide richtungen abzuchecken: und was ich immer predige, jeder redir ist ein zukünftiger doppeleintrag weniger, drum sind sie mein steckenpferd..
sonst aber, sensationell tolles teil, ein weiterer schritt zu einer semantischen wikipedia auf tool-ebene -- W!B: 12:41, 12. Jun. 2007 (CEST)
- Mir ist bewusst, dass da rein Codierungsmäßig einiges im Argen liegt, unter anderem, weil Notepad++ sich permanent weigert, den BOM zu löschen. Ich lass mir was einfallen, aber erst nach den Klausuren! --Flominator 15:30, 12. Jun. 2007 (CEST)
- ;) brav lernen.. Notepad++ ist interessant, mein SciTE zickt nämlich auch mit unicode, obwohl er UTF-8 als auch -16 (UCS-2 LE und BE) verstehen sollte - und UTF-8 Cookie .. das weiß ich nicht, was das ist - gruß --W!B: 18:20, 12. Jun. 2007 (CEST)
Contexter funktioniert nicht (erledigt)
[Quelltext bearbeiten]Nun ja, du scheinst gerade eine Weile offline zu sein, aber trotzdem: er funzt gerade nicht. :/ --Informationswiedergutmachung (Diskussion) 12:58, 15. Jun. 2015 (CEST) @Informationswiedergutmachung:: Tut wieder. Anpingen hat geholfen :) --Flominator 13:00, 16. Jun. 2015 (CEST)
- Übrigens: danke sehr für das Tool, kann man das nicht mal langsam in die Wikipedia integrieren? Ich finde es klasse, es vereinfacht die Arbeit (nur nicht die, das den Unwissenden zu erklären). --Informationswiedergutmachung (Diskussion) 16:24, 16. Jun. 2015 (CEST)