Wikipedia Diskussion:Archiv/PDF-Generator/Archiv
Implementierte Funktionen und korrigierte Bugs
Aufruf von pdftex aus dem Script
- Und zwar so oft, bis auch der letzte Seitenumbruch, die letzte Fußnote und das letzte Verzeichnis erzeugt sind. LaTeX braucht für einige Aufgaben mehr als einen Durchlauf. Harko 18:52, 5. Mär 2004 (CET)
Automatische Wahl von Dateinamen
- Das Script sollte vielleicht automatisch auch Dateinamen vergeben, es soll ja auf einem Webserver laufen und konkurrierend mehrere Anfragen bearbeiten können. Entsprechend sollte das Script auch das Alter vorhandener Dateien in seinem Ausgabe-Verzeichnis überprüfen und bei sehr alten Dateien eine Löschung (oder zumindest ein detach) vornehmen. Harko 18:52, 5. Mär 2004 (CET)
- Ich bin mir noch nicht sicher, wie das Skript überhaupt aufgerufen werden soll. Z.B. so:
wiki2latex.py de "Dokument" "Artikel1" "Artikel2" "Artikel3"
- Vielleicht wird das ja auch ein kleines Bundle von Scripten, die sich gegenseitig aufrufen?
artikelsammlung.py "$RANDOM.txt"
- das erstellt mit der Selektion aus einer Auswahlliste von verfügbaren Artikeln, die ein Nutzer tätigte eine Datei mit den zu sammelnden Artikel-URLs und ruft auf:
wiki2latex.py "$RANDOM" "$RANDOM-von-artikelsammlung.txt"
- Ich gehe mal stillschweigend von einer Anwendung aus, die ein nettes HTML-Frondend haben soll, damit sich der geneigte Nutzer auch seine Zusammenstellung bauen kann, die ihm dann als PDF auf die Kiste flattert (deshalb sollte dieses Script auch gleich die LaTeX-Aufrufe gestalten). Gleichzeitig kann man mit artikelsammlung.txt auch eine langsam fortschreitende Sammlung druckwürdiger Texte erzeugen (die dann eben nicht per Zusammenklick erzeugt wird, sondern mit 'nem Texteditor). ... Aber kann sein, dass ich da noch nicht gar so ausgereifte Gedanken habe. Harko 20:39, 5. Mär 2004 (CET)
- und es werden Dokument/Artikel1-<timestamp>.tex etc. generiert. Von SQL-Datenbanken hab ich keine Ahnung, vielleicht weisst du, Harko, wie man das am besten damit verknüpft. Das Skript muss ja irgendwie die Inhalte (Wiki-Source, Bilder) abholen, der Umweg über http-Abfragen ist nicht wirklich elegant. -- Stw 20:00, 5. Mär 2004 (CET)
- Der ist nicht elegant, birgt aber den riesen Vorteil, dass er von jedem Rechner aus gangbar ist, oder bietet WikiPedia einen direkten Zugang zur Datenbank? Die Tatsache, dass es von jedem Rechner aus genutzt werden kann, schützt das Projekt davor, der Missgunst fremder Menschen zum Opfer zu fallen. Wenn natürlich direkter Datenbankzugang ermöglicht wird, dann ist das was anderes, in diesem Falle sind ja auch ganz andere Steuerinformationen (vielleicht) verfügbar. Harko 20:39, 5. Mär 2004 (CET)
0.9-2nd release
Wunderbar, arabisch klappt wunderbar. Alternativ dazu fällit auf, daß einige wikilinks seltsam bis gar nicht mehr angezeigt werden. gerade das [ Link | Anzeige ] resultiert in einem Link [ ] oder so. Andere Punkte wie Umbrüche sind nicht so dramatisch. Well done. -- Mathias Schindler 22:59, 15. Mär 2004 (CET)
- Hmm, das mit dem [ Link | Anzeige ] funktioniert jetzt, offenbar hast du grade dann das PDF abgerufen, als ich noch am Skript herumbastelte... -- Stw 23:36, 15. Mär 2004 (CET)
Feedback PDF-Erstellung
erster Versuch war mit GNU und Softwarepatent, gab eine Fehlermeldung. zweiter und dritter Versuch klappt hervorragend. -- Presroi 14:46, 6. Mär 2004 (CET)
- Weiterleitung funktioniert noch nicht. Du musst also "GNU-Projekt" eingeben. Stw 14:58, 6. Mär 2004 (CET)
- Angenommen, ich will 10 Artikel zusammentackern, so kommt es auch nach einigen Minuten zu keinerlei Reaktion. Oder ich mache was falsch. -- Presroi 16:21, 6. Mär 2004 (CET)
- Was heisst einige Minuten? 5 Minuten kann es bei 10 Artikeln locker dauern. Da kann ich leider auch nichts machen, das Problem ist dass jedesmal die "Bearbeiten"-Seite geladen wird, um an den Wiki-code zu gelangen. -- Stw 16:47, 6. Mär 2004 (CET)
- Okay, ich probiere es nochmal und warte mal bis fertig :) -- Presroi 16:50, 6. Mär 2004 (CET)
Presroi, bist du das der Artikel zum Thema Internet herunterlädt? Funktionierts? In meinen Logfiles steht so etwa alle 20 Artikel:
cat:write error: Broken pipe
-- Stw 17:52, 6. Mär 2004 (CET)
- Ich sehe gerade, dass Artikel mit Klammern im Titel nicht gefunden werden, z.b. Mailbox (Computer). Da gibts noch viel zu tun... -- Stw 17:54, 6. Mär 2004 (CET)
- Jupp, das bin ich und nein, ich bekomme keine Ergebnisse. Ich werde mich mal an der Artikelzahl herunterhangeln. Der Fortschritt ist auf jeden Fall beeindruckend. Wissen die Engländer schon davon? Grüße, Mathias -- Presroi 17:55, 6. Mär 2004 (CET)
0.8-Probleme
Runaway argument? {\href {http://de.wikipedia.org/wiki/Salat_\item Das Almosengeben \textit \ETC. ! File ended while scanning use of \textit . <inserted text> \par <*> t.tex I suspect you have forgotten a `}', causing me to read past where you wanted me to stop. I'll try to recover; but if the error is serious, you'd better type `E' or `X' now and fix your file. ! Emergency stop. <*> t.tex *** (job aborted, no legal \end found)
-- Presroi 19:21, 7. Mär 2004 (CET)
- Ist mit Version 0.9 teilweise gelöst. Die arabischen Zeichen führen nicht mehr zum Abbruch, aber werden als [U+xxxx] dargestellt, da LaTeX diese offenbar nicht kennt.
Biete Server
Da ich mich ja nun aus dem Fenster lehnte, um Platz auf meinem Rechner (askja.de) zu bieten, wäre nun die Frage, was an Traffic und dergleichen zu erwarten ist. Gibts schon Vorstellungen oder ähnliches? Harko 22:31, 11. Mär 2004 (CET)
- Ich könnte das auf meinen Unispeicher hochladen, das wäre wohl weniger kritischer, oder? -- da didi 22:32, 11. Mär 2004 (CET)
- Hab nun alles nötige auf dem Rechner, Admin meint, dass es kein Problem darstellt (weil ich ja die Traffic-Rechnungen bezahle) und ich für meinen Teil nehme mal an, dass der nicht so sehr schnell auf mehr als 5GB pro Monat wachsen wird (was meine derzeitige Schmerzgrenze ist). ... außerdem würde ich es wirklich gern machen ... endlich mal wieder was neues :) Harko 23:08, 11. Mär 2004 (CET)
Bilder
Leider kann ich mit meinem Skript die Bilder nicht direkt herunterladen, da Wikipedia den User-Agent von Python sperrt. Hat jemand eine Lösung zu diesem Problem?
- Für diesen Fall sollte man imho legitim den user-Agent ändern dürfen, sofern das geht. alternativ mit python ein wget aufrufen oder ein links, das das bild dumped. Alles ziemlich krude, oder? -- Presroi 22:12, 5. Mär 2004 (CET)
- Ich verwende nun die API von http://pywikipediabot.sf.net , damit wird der User-Agent geändert. Trotzdem muss ich dann noch den HTML-Code nach dem IMG-Tag durchsuchen, was ziemlich unelegant ist. -- Stw 23:06, 5. Mär 2004 (CET)