Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google Webmastertools Einstellungen

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
jab_doa
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 26.06.2009, 21:43

Beitrag von jab_doa » 26.06.2009, 22:05

Hi,

mal eine generelle Frage: Wann werden die Einstellungen aus den Google Webmastertools aktiv? Wir haben die Geschwindigkeit von 2,5 Seiten/s (vorgabe) auf 10 Seiten/s erhöht. Bisher schafft der Spider aber trotzdem nur rund 200k Seiten/Tag also immer noch in etwa 2,5 Hits/s. Wir das erst beim nächsten Spider Durchlauf aktiv? Das wäre blöd, denn bei dieser geringen Geschwindigkeit wird der Spider noch etwa 60 Tage brauchen (ca 50 ist er schon dabei). Gibt es eine andere Möglichkeit die Geschwindigkeit des Spiders zu erhöhen?


Gruß,
Jan

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

fivezoom
PostRank 1
PostRank 1
Beiträge: 20
Registriert: 26.06.2009, 14:43

Beitrag von fivezoom » 26.06.2009, 22:18

Hallo jab_doa,

Ändere einfach mehrmal täglich deinen content, dann kommt der spider von alleine öfter vorbei. Z.b: per RSS Einbindung. In den Webmastertools habe ich den Regler mal nach ganz oben geschoben und die Indexierung ging vom nächsten Tag a recht fix. Mit Deeplinks zu den Artikeln sollte da auch mehr zu erreichen sein, ist aber aufwendiger.

Grüße
Suchmaschinenoptimierung, Suchmaschinenmarketing und Webdesign Service

www.fivezoom.com - growing internet services

jab_doa
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 26.06.2009, 21:43

Beitrag von jab_doa » 26.06.2009, 22:24

Hi,

der Spider ist immer da. Der braucht nicht wieder zu kommen ;-). Wie gesagt seit 50 Tagen ist er am drehen. Jeden Tag wandern ca 30k Seiten in den Index. Bisher hat er nur wenige Seiten ein zweites Mal gespidert. Eine Änderung würde der so schnell nicht mitbekommen. Deshalb haben wir die Geschwindigkeit hochgedreht. Ganz hoch haben wir sie bewusst nicht gesetzt, denn 100Hits/s an zusätzlichem Traffic auf die dynamischen Inhalte würde unsere aktuelle Serverfarm wohl nicht so gut verkraften. Die Frage ist halt, ob die Änderung wirklich erst beim nächsten Lauf gilt.


Gruß,
Jan

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 27.06.2009, 13:52

Die Geschwindigkeit wird vom Crawler ignoriert, wenn Deine Seite dadurch in die Knie geht. Die Automatik sorgt dafür, dass die Geschwindigkeit steigt, wenn Deine Seite schneller wird. Ergo musst Du für mehr Serverpower sorgen.
Ich kaufe Dein Forum!
Kontaktdaten

jab_doa
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 26.06.2009, 21:43

Beitrag von jab_doa » 28.06.2009, 16:27

Die Geschwindigkeit der Seite sollte keine Probleme machen bei 10 Hits/s. Wir können augenblicklich etwa 50 Hits/s an dynamischen Seiten (Bilder, CSS, JS kommen noch dazu also ca 200 Hits/s) ohne Geschwindkeitseinbußen ausliefern. Danach wirds haarig.

Im Augenblick sieht es sogar so aus als wenn der Spider etwas langsamer geworden ist die letzten zwei Tage (150k/Tag), aber das kann auch statistische Abweichung sein.


Gruß,
Jan

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 28.06.2009, 19:03

So direkt wirst du den Bot nicht steuern können, denn die Geschwindigkeit wird (auch) von Google gesteuert.

Wenn du ihn zu aktiverer Mitarbeit überreden möchtest, sollten deine Seiten eine hohe Aktualisierungsfrequenz, viele wertvolle Links und eine überdurchschnittliche LinkPop haben.

Hast du die nicht, kannst du an der Schraube Webmastertool drehen wie du willst - es wird sich nichts ändern.

Ich kenne jetzt deine Seite nicht, wenn sie noch relativ neu ist (< 6 Monate), wird der Bot u.U. in kürze erlahmen...

jab_doa
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 26.06.2009, 21:43

Beitrag von jab_doa » 28.06.2009, 19:54

@pompom: Wir haben pr7 bekommen, da wir von einigen großen Newsseiten und vielen kleineren themenrelevanten Seiten gelinkt werden. Wir haben etwas mehr als 30 Millionenseiten an Content. Google spidert seit knapp 3 Monaten. Der Content ist in sofern aktuell, da er noch nicht gespidert wurde. Wir haben allerdings keine Sitemap. Würde eine Sitemap die Geschwindigkeit verbessern?


Gruß,
Jan

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 28.06.2009, 20:46

Thema Sitemap:
Bei schlechter interner Verlinkung: ja, sonst eher nein.

Jahrelang hatte ich auch keine Sitemaps, auf einem (viele jahre alten) Projekt, bei dem Google irgendwann angefangen hat, Massen an Seiten zu verlieren, haben Sitemaps geholfen, bei einem anderen grossen Projekt, ca. 3 Mio. Seiten, bei dem der Bot zu Anfang für mehrere Monate ordentlich Gas gegeben hat (grössenordnung ca. 150 k Seiten pro Tag), haben die Sitemaps nichts gebracht, der Bot dümpelt jetzt bei ca. 50 - 70 k Seiten pro Tag, trotz nachgereichter Sitemap.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag