Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Seitenreferenzen aus Webarchiv löschen lassen?

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Hobbytaucher
PostRank 1
PostRank 1
Beiträge: 2
Registriert: 18.01.2007, 07:28

Beitrag von Hobbytaucher » 18.01.2007, 07:38

Guten Tag,

ich würde gerne wissen, ob es möglich ist, anhand einer robots textfile, die ich in das Verzeichnis meiner derzeitigen Homepage aufladen würde, meine alten Domains, die nicht mehr existieren, definieren könnte, so dass die archivierten Seiten dieser alten Domains wie zB in webarchiv.org gelöscht werden?

Auf der Seite von webarchiv.org habe ich folgenden Hinweis gefunden:

To exclude the Internet Archive’s crawler (and remove documents from the Wayback Machine) while allowing all other robots to crawl your site, your robots.txt file should say:

Code: Alles auswählen

User-agent: ia_archiver
Disallow: /
Gibt es noch andere Archive ausser webarchiv.org, die Webseiten archivieren?

Vielen Dank.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


seoes
PostRank 2
PostRank 2
Beiträge: 44
Registriert: 17.01.2007, 12:58

Beitrag von seoes » 18.01.2007, 10:39

Hobbytaucher hat geschrieben: Gibt es noch andere Archive ausser webarchiv.org, die Webseiten archivieren?
Da gibt es wohl zu viele von.
Den es gibt auch u.a. Dienste die Bilder(z.b. als Thumbnails) von der Seite erstellen und, und, und.

Daher ist es eigentlich nur ratsam, wenn man seine Seite in solche seriösen Dienste nicht haben möchte, das man im robots.txt erst die, für einen selber relevanten Bots direkt mit dem Namen anspricht (z.B. g00gelb0t) und zum Schluss:

Code: Alles auswählen

User-agent: *
Disallow: /
setzt.
Seriöse Dienste sprechen darauf an und indizieren, speichern, ... nichts von deiner Seite.

Hobbytaucher
PostRank 1
PostRank 1
Beiträge: 2
Registriert: 18.01.2007, 07:28

Beitrag von Hobbytaucher » 19.01.2007, 12:08

seoes hat geschrieben:

Code: Alles auswählen

User-agent: *
Disallow: /
Wenn man das in der robots.txt schreibt, dann werden doch alle bots ausgeschlossen, oder? Mir ging es zunächst mal nur um die, welche die Seiten archivieren.

Die andere Frage war, ob es möglich ist, die robots.txt so zu schreiben/definieren, dass bereits veraltete und nicht mehr existente Seiten aus den Archiven gelöscht werden, wenn man die Datei dann in einem existierenden Stammverzeichnis einer Domain auflädt.

chrizz
PostRank 10
PostRank 10
Beiträge: 3044
Registriert: 05.07.2006, 10:37
Wohnort: Berlin

Beitrag von chrizz » 19.01.2007, 12:18

es werden die bots ausgeschlossen, die sich an die robots.txt halten.
allen anderen ist das wohl eher egal...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag