Gesucht ist ein Programm mit dem sich Internetseiten komplett herunterladen lassen (problem gelöst)

Wir sammeln alle Infos der Bonusepisode von Pokémon Karmesin und Purpur für euch!

Zu der Infoseite von „Die Mo-Mo-Manie“
  • Hallo zusammen,


    ich habe gerade Probleme mit dem Provider (WebWide) einer meiner Internetseiten - und die Wahrscheinlichkeit ist hoch, dass in naher Zukunft einige Daten verloren gehen, wenn ichs nicht irgendwie schaffe die zu sichern..


    Es geht um folgendes:

    Ich habe eine Internetseite in der es verschiedene Unterkategorien gibt und Beiträge und Medien mit einander quer verlinkt sind. Ist in etwa wie das Bisaboard aufgebaut, also eigentlich ganz normal, nur dass die Seite ist in 2 Sprachen ist, heißt also das gleiche in Deutsch und Englisch.


    Die Seite hat sich mit den Jahren einige male verändert - und wenn das gekündigt wird wäre dei ganze Historie weg.. Darum meine Frage:


    Gibt es eine Möglichkeit eine Internetseite so herunterzuladen, dass die Quasi in Offline bei gleichem Aufbau, funktionierenden Links, eingebetteten Medien etc. genutzt werden kann? Also, dass ich ein Dokument öffne und es mir offline die seite ausspuckt, die man dann ganz normal nutzen kann. Geht das mit dem heutigen interaktiven Aufbau von internetseiten überhaupt noch?


    Das müsste für beide Sprachen, sowie für die verschiedenen Zeitpunke gemacht werden.. Weiß da jemand mehr?


    Wäre ziemlich wichtig, es ist mir auch egal wie viel Speicherpatz das braucht.


    Liebe Grüße

    BlueFirefly

  • Moin :)

    Ideal wäre es natürlich, wenn du an die Quelldaten kommst, aber ich nehme mal an, dass die Seite dann mit einem dieser Homepage-Baukästen erstellt wurde?

    Da das dann vermutlich nicht möglich sein wird, müsstest du wohl einen „Crawler“ drauf loslassen, der von einer Startseite aus rekursiv alle verlinkten Unterseiten durchgeht und diese und alle eingebundenen Ressourcen (Stylesheets, JavaScript, Bilder, …) runterlädt (und eventuell Links umschreibt).

    Wenn du mir die Seite verrätst, könnte ich mal mein Glück versuchen.

  • Max danke für dein Angebot


    genau genommen habe ich nicht mal zugriff auf mein Konto dort, weil die es nicht für nötig gehalten haben meine Daten zu aktualisieren. Als zugriffe habe ich keine, wenn man diese Daten-Archiv-Programme mal rausnimmt mit denen man Zugriff auf längst veraltete Seiten findet.

    Ich habe aber endlich jemand von denen ans Telefon bekommen und eine lösung gefunden. Resultat ist, dass ich das Unternehmen verlasse, die Domain zu einem anderen Unternehmen umzieht und ich den alten Vertrag lösche.. Hat dann am ende doch noch geklappt ohne dass meine Daten in gefahr waren.. puh..


    Ein einfaches easy-2-use Programm, dass eine Internetseite samt inhalt 1zu1 auf den PC spiegelt scheints nicht zu geben, oder?

    (Einfach nur weils mich grade interessiert, ich brauche es ja glücklicherweise nicht mehr)


    Grüßle

    BlueFirefly

  • BlueFirefly

    Hat den Titel des Themas von „Gesucht ist ein Programm mit dem sich Internetseiten komplett herunterladen lassen“ zu „Gesucht ist ein Programm mit dem sich Internetseiten komplett herunterladen lassen (problem gelöst)“ geändert.
  • Ich hätte das mit dem Linux-Kommandozeilenprogramm wget probiert (das hat entsprechende Optionen dafür), aber ich hatte noch mal geschaut und „HTTrack“ gefunden.

    Mit dem „ArchiveBot“ gibt es auch noch die Möglichkeit eine Website für archive.org crawlen zu lassen.