Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Zeitliche Einschränkung in robots.txt?

Ajax, Hijax, Microformats, RDF, Markup, HTML, PHP, CSS, MySQL, htaccess, robots.txt, CGI, Java, Javascript usw.
Neues Thema Antworten
michaelskw
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 14.09.2005, 13:16

Beitrag von michaelskw » 20.05.2009, 12:05

Hallo,

ich hätte eine Frage zu einer robotos.txt

Wir haben das Problem, dass unsere Suche wegen täglicher Datenbankupdates (mehrere Millionen Produkte) jede Nacht ca. 20 Minuten nicht erreichbar ist.

Im Webmaster Tool haben wir daher ziemlich viele "Nicht erreichbare URLs" - die es aber gibt. Ein Grund hierfür wäre natürlich, dass der Spider diese Seiten versucht hat zu indexieren, als Sie wegen des DB-Updates nicht erreichbar waren.

Kann mit z.B. in der robots.txt eine zeitliche Einschränkung angeben, dass die Seiten z.B. zwischen 3 und 4 Uhr nachts nicht gecrawled werden sollen?

Oder kann man das irgendwie anderes lösen?

Viele Grüße
Michael

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 20.05.2009, 12:14

Ich würde Empfehlen das Backup in Abhängigkeit zu den täglichen Impressionen durchzuführen und nicht mit Cronjobs (z.B. 1 Impression = Import von 10 Produkten).

Eine weitere Möglichkeit wäre es den Cronjob beim jeweiligen Reload mit einer CPU-Kontrolle auszustatten. Sofern die CPU nicht Limit X überschreitet darf er weiter machen, ansonsten muss er 60 Sekunden warten. So dauert das Backup zwar länger, aber der Server bleibt erreichbar.

Beides bezieht sich wie du siehst auf Lastverteilung.

Danach hilft nur noch ein besserer/mehr Server.
Ich kaufe Dein Forum!
Kontaktdaten

Anonymous

Beitrag von Anonymous » 20.05.2009, 12:17

robots.txt ist da absolut ungeeignet....

evt.l das DB update so durchführen das es die Suche nicht beeinträchtigt... also z.B. erst eine kopie der DB anfertigen, in der kopie das update fahren und wenn dies fertig ist die tabellen umbenennen, so das die Kopie zum livesystem wird... so haste maximal Ausfälle im sekundenbereich...

eine andere, ebenfalls bewährte, methode ist einfach die Fehlermeldungen in den webmastertools zu ignorieren... ihr wisst ja warum es diese Fehler gibt...

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 20.05.2009, 12:18

net(t)worker hat geschrieben:eine andere, ebenfalls bewährte, methode ist einfach die Fehlermeldungen in den webmastertools zu ignorieren... ihr wisst ja warum es diese Fehler gibt...
Damit weißt Du aber nicht, welche Fehler aus welchem Grund resultieren. Also wirkliche Fehler sind damit nicht mehr erkennbar.
Ich kaufe Dein Forum!
Kontaktdaten

michaelskw
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 14.09.2005, 13:16

Beitrag von michaelskw » 20.05.2009, 12:19

eine andere, ebenfalls bewährte, methode ist einfach die Fehlermeldungen in den webmastertools zu ignorieren...
die frage ist halt nur, ob das auf die bewertung von google einen einfluss hat? Ich kann mir nicht vorstellen, das es Google "egal" ist, wenn tägliche viele Seiten nicht erreichbar sind.

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 20.05.2009, 12:25

Google ist es egal, aber Google kann die Seite nicht aufrufen, um sie in den Index zu packen / zu aktualisieren. Faktisch verlierst Du also einen Tag bei der Indexierung (oder mehrere, falls es immer wieder zum gleichen Zeitpunkt zum Ausfall kommt und Google gerade dann wieder einen Versuch gestartet hat).

Was mir auch aufgefallen ist, dass die Crawlinggeschwindigkeit nachlässt, wenn Deine Seite keine gute Antwortzeit hat. Bei vielen Fehlern, dürfte die ja vermutlich schlecht sein. Man riskiert also, dass Google weniger Seiten indexiert, als man es eigentlich gerne hätte.

Es macht also durchaus Sinn die Fehler zu bereinigen, wenn es sich auch nicht auf die SERPs oder ähnliches auswirkt.
Ich kaufe Dein Forum!
Kontaktdaten

michaelskw
PostRank 2
PostRank 2
Beiträge: 46
Registriert: 14.09.2005, 13:16

Beitrag von michaelskw » 20.05.2009, 12:33

Google ist es egal
ist es google wirklich egal, wenn eine seite tausende "nicht erreichbar urls" im webmaster tool anzeigt? Zahlt das nicht in die Qualitätsbewertung und damit unter Umständen auch auf das Ranking einer Seite mit ein?

oio
PostRank 2
PostRank 2
Beiträge: 61
Registriert: 23.04.2009, 21:36

Beitrag von oio » 20.05.2009, 20:47

ähm ... 20 minuten alles lahmlegen für den db-update?

warum benutzt du nicht zwei datenbanken und switcht einfach zu einem festgelegten zeitpunkt zur jeweils aktualisierten?

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 20.05.2009, 23:00

Ich will ja nicht unken, aber:
Ihr habt mehrere MILLIONEN Produkte? :o

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 20.05.2009, 23:13

Mehrere Millionen Produkte ist bei einer Preissuchmaschine normal :D

Sollte es sich wie ich erahne, um eine solche handeln, dann kannst Du das umgehen, indem du deine Datenbank je nach Affili Partern Stück für Stück erneuerst.

Das muß man nicht in einem Rutsch machen, sondern kann das ganze auch abgleichen lassen. So werden nur erneuerte Artikel rein oder raus genommen. Das spart erheblich Zeit und man hat keine Probs mit Google.

Allerdings braucht man für den Abgleich einen starken Server.

Gruß Scubi

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 21.05.2009, 12:02

So oder so dürfte es sich um eine mangelhafte technische Umsetzung handeln. Es macht auch aus finanzieller Sicht überhaupt keinen Sinn seinen Server offline zu nehmen. Es gibt ja schließlich auch nachts Besucher, wenn auch weniger.
Ich kaufe Dein Forum!
Kontaktdaten

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag