Seite 1 von 1

Google Cache / Serverabsturz / Tool ?

Verfasst: 08.05.2009, 10:19
von Kaiafas
Hallo,
habe bei einem Serverabsturz ca. 150 Seiten verloren. Die Seiten sind alle noch im Google Cache . Ich möchte aber nicht unbedingt alle einzeln manuell besuchen und den Inhalt rauskopieren.

Gibt es ein Tool mit dem man ale Seiten einer Domain automatisch aus dem Cache filtern kann ?

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 08.05.2009, 22:52
von Kaiafas
Ich schiebs mal nach oben:

Kann niemand weiterhelfen ?

Verfasst: 09.05.2009, 07:39
von thefly
Verstehe ich deine Aussage richtig?
Die Seiten sind nicht mehr auf dem Server aber werden von Google verlinkt, laufen aber ins Leere?
Dann mach doch eine Weiterleitung.

Gruß
thefly

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 09.05.2009, 07:47
von JohnBi
Er möchte die Daten retten, ich hatte auch mal über 150 Seiten verloren und hab diese soweit es ging per Copy & Paste aus dem Google-Cache gerettet, sonst noch bei MSN oder Yahoo im Cache schauen, da konnte ich noch einige andere finden und retten... ich würde mich auch für so nen Tool interessieren, für den Fall der Fälle das mir sowas nochmal passiert...

Verfasst: 09.05.2009, 07:47
von MrTunes
Wenn ich es richtig verstanden habe, möchte er den Content aus dem Cache sichern, weil er ihn "verloren" hat.

Verfasst: 09.05.2009, 08:32
von andre1966
Hi,

ich habe nur eine Seite wo man frühere Versionen einer Webseite anschauen kann. Kommt halt darauf an wann die Seite so erstellt wurden ist wie Sie jetzt ist. Aber schaut selbst einmal. Hoffe ich konnte euch ein wenig helfen.

https://www.archive.org/index.php

Verfasst: 09.05.2009, 09:58
von Kaiafas
Ja.. ich möchte den Content aus dem Google Cache retten, darum geht es mir.


Anschauen kann ich die Seiten ja .. denn sie sind im Cache bei Google verfügbar.

Ich möchte aber nicht alle 150 Seiten Einzeln manuell aufrufen und per Copy/Paste die Inhalte rauskopieren. Es gibt ja Tools mit denen man den Inhalt ganze Domains offline speichern kann und dann später verwenden.
ich frag mich ob es so etwas auch für Seiten gibt die im Google sind.

Die normalen Links sind in Google noch vorhanden aber sie laufen ins leere ,. nur die Cache links funktionieren noch.. allerdings vermutlich auch nur noch ein paar Tage/Wochen... dann macht Google die auch dicht.

Es geht im übrigen nicht um Content Klau sondern wirklich um eigene Texte.


Danke für Eure Hilfe

Verfasst: 09.05.2009, 10:48
von Qartist
Also wenn du nichtmal ein Backup deiner eigenen Seite hattest... kannst du froh sein wenn du sie überhaupt noch aus dem Cache kopieren kannst :D

Würde mich aber dann schon beeilen weil der Cache bleibt auch nicht ewig :)

Ich weiß nicht ob es geht, aber versuch es mal mit HTTrack - ein Programm womit du ganze Webverzeichnise (HTML + Bilder zB) herunterladen kannst... und dann einfach folgendes als URL Eingeben.

Die URL von Google zu deiner Seite im Cache...

müsste ca so aussehen:

https://google.de/search?q=cache:cache_idJ:domain.de

Nachdem du alle Seiten heruntergeladen hast kannst du die Seiten falls die nicht gerade in JavaScript oder Flash generiert wurden einfach wieder Online stellen...

Wenn es mit PHP war.. tja :P Musste halt dann manuell wieder einfügen..

Und für die Zukunft - Mach am besten ein Lokales Backup BEVOR du was Online stellst...

Habe Beispielsweiße alle meine Seiten auf USB Stick und jegliche WordPress Beiträge (MySQL Data) werden nach jedem Beitrag Synchronisiert - musst du auf deinem Server einstellen das du die ganzen SLQ Data files einfach runterlädts bei veränderungen... Nach einem Recovery einfach die Data wieder in den MySQL Ordner.

Hoffe ich konnte dir irgendwie helfen.

mfg Q-Artist

Verfasst: 09.05.2009, 18:30
von Kaiafas
Danke für die ausführliche Anleitung.

Hab das Programm HTTTTrack installiert. aber die URL ist leider nicht korrekt:
https://google.de/search?q=cache:cache_idJ:domain.de


Wenn man das eingibt gibts ne Fehlermeldung bei Google.

Weiss jemand wie die exakte URL einer Domain im Cache lautet ?

Verfasst: 09.05.2009, 18:51
von JohnBi
Ja, du suchst nach der URL mit site:[URL] und dann klickste auf Im Cache und dann haste die exakte URL einer Domain im Cache.

Verfasst: 09.05.2009, 23:12
von Kaiafas
Hallo, JohnBI,

das ist leider nicht die URL die ich suche. Wenn ich diese bei HTTTrack eintrage bekomme ich eine Fehlermeldung von Google im HTTRack.

Entweder habe ich mich nicht deutlich genug ausgedrückt was ich suche.. oder es geht evtl. überhaupt nicht..

hmm ...

Trotzdem danke

Verfasst: 10.05.2009, 00:21
von Kaiafas
Hallo, JohnBI,

das ist leider nicht die URL die ich suche. Wenn ich diese bei HTTTrack eintrage bekomme ich eine Fehlermeldung von Google im HTTRack.

Entweder habe ich mich nicht deutlich genug ausgedrückt was ich suche.. oder es geht evtl. überhaupt nicht..

hmm ...

Trotzdem danke

Verfasst: 10.05.2009, 22:42
von Kaiafas
Kann mit jemand bez. der korrekten URL weiterhelfen ?

Verfasst: 10.05.2009, 22:55
von Seostern
Das ist ja ärgerlich, wieso hast Du denn keinen Backup von deinen Seiten? Der Hoster muss alle Seiten ja sichern, bei einem eigenen Server musst Du dich natürlich drum kümmern.

Verfasst: 10.05.2009, 23:16
von Kaiafas
ich hab ein Backup von über 4000 Seiten.. die letzen 150 fehlen mir halt..