Online-Dokumentation lokal speichern

Probleme, Fragen und Lösungen
Antworten
manfred
Foriker
Beiträge: 6
Registriert: Mi 2. Dez 2009, 22:45
Kontaktdaten:

Online-Dokumentation lokal speichern

Beitrag von manfred » Di 9. Aug 2011, 22:19

Es gibt eine hervorragende Online-Dokumentation unter http://www.gambasdoc.org/help/. Ich habe mir diese mittels

Code: Alles auswählen

wget -F -rxk http://www.gambasdoc.org/help/
heruntergeladen. Startpunkt ist die Datei

Code: Alles auswählen

www.gambasdoc.org/help/index.html


Lade ich nun in einem Browser diese Seite (index.html), so klappt das auch einwandfrei. Aber die Links darin verweisen auf Seiten mit Namen, die offenbar nicht richtig verarbeitet werden. Grund scheint mir zu sein, daß da fast alle Dateinamen Sonderzeichen wie "?" und "&" enthalten.

Beispiel:
Ich habe die index.html geladen und klicke auf den Link zu "Gambas object model". In der Fußzeile zeigt mir der Browser an, daß er

Code: Alles auswählen

help/doc/object-model?en&show
laden will. Diese Datei gibt`s auch wirklich unter diesem Namen, aber ich erhalte die Fehlermeldung

Code: Alles auswählen

help/doc/object-model existiert nicht


Vergleicht man die Dateinamen der Datei, die er laden soll, mit dem, dessen Nichtexistenz er anmeckert, so fällt auf, daß der Teil nach dem "&" abgeschnitten ist. Und eine solche Datei gibt's ja in der Tat nicht.

Frage also:

Hat sich schon mal jemand unter der o.a. Adresse die Online-Doku lokal heruntergeladen? Wie kann das Problem umgangen werden? Oder gibt's noch eine weitere Quelle für die Doku, für die das Problem nicht existiert?

Danke schon mal ...

manfred
In a World without Walls and Fences we need no Windows or Gates

Honsek
Foriker
Beiträge: 343
Registriert: Do 4. Okt 2007, 17:01
Kontaktdaten:

Re: Online-Dokumentation lokal speichern

Beitrag von Honsek » Fr 26. Aug 2011, 19:06

Hallo Manfred,

ich habe jetzt einige Versuche unternommen, um zu ergründen, wo Dein Fehler liegen könnte. Offensichtlich machst Du keinen Fehler. Einige Varianten in den Optionen zum wget-Befehl habe ich ausprobiert. Resultat gleich Null. Offensichtlich liegt es an der Art der Verlinkung der einzelnen Webseiten, die ja datei-intern statisch festgelegt sind, so dass man nicht durch das Web navigieren kann.

Wenn sich Neues ergibt, werde ich hier informieren.

Mit freundlichen Grüßen

Honsek
---> Wenn Du eine gute Antwort erwartest, musst Du sehr gut fragen!

tux_
Moderator
Beiträge: 946
Registriert: Di 11. Nov 2008, 20:05
Kontaktdaten:

Re: Online-Dokumentation lokal speichern

Beitrag von tux_ » So 28. Aug 2011, 10:48

Hi,

dein Versuch schlägt selbstverständlich fehl, da über das [?] Fragezeichen die Parameterübergabe an eine Datei über den Webbrowser eingeleitet wird, die einzelnen Parameter=Wert-Paare werden durch [&] kaufmännisches Und getrennt. Wenn du also einen Link hast, wird der Dateiname vom Anfang bis zum [?] Fragezeichen angenommen, so kommt der falsche Pfad heraus. Nun brauchst du diese Parameter nicht, da du die html-Dateien bereits hast, die (sicher) von einem Skript erzeugt wurden, das die Parameter verwertet hat, also kannst du dem abhelfen, indem du alle Dateinamen, die von wget gesetzt wurden, auch am Fragezeichen abschneidest (denke ich mir jedenfalls):

Code: Alles auswählen

Public Sub TruncateFilenames(sPath As String)
  Dim aFiles As String[] = RDir(sPath)
  Dim sFile As String

  For Each sFile In aFiles
    If Not InStr(sFile, "?") Then Continue
    Try Move sPath &/ sFile To sPath &/ Left$(sFile, InStr(sFile, "?") - 1)
    If Error Then Error "Konnte Datei nicht verschieben: "; Error.Text
  Next
End


Damit funktioniert die automatische Umbenennung bei mir zumindest, welche anderen Probleme sich ergeben, weiß ich nicht.

MfG,
tux_
Achtung: Es passiert, dass ich einen frisch geschrieben Beitrag innerhalb von 10 Minuten noch 3-4 Mal aendere!

Benutzeravatar
Ray65
Foriker
Beiträge: 113
Registriert: Fr 3. Okt 2008, 15:00
Wohnort: Königseggwald, Ba-Wü
Kontaktdaten:

Re: Online-Dokumentation lokal speichern

Beitrag von Ray65 » So 28. Aug 2011, 11:34

Hallo Allerseits,

für solche Zwecke verwende ich HTTrack bzw. Webhttrack. Mit dieser Software werden alle Seite und deren enthaltene Links automatisch geparst.
Hat bei mir bisher alle Websites fehlerfrei und im richtigen Format heruntergeladen.

Gruß Raymond
Ubuntu 12.04 - Gnome 3.4.1 - Gambas 3.3.3

"Man kann kein Programm idiotensicher machen, weil die Idioten so erfinderisch sind!"

Antworten

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 3 Gäste