Bevor ich mit meinem Portal online ging, habe ich bewusst verhindern wollen, dass Google die Website vorher durchsucht. Der Inhalt von robots.txt war folgender:
User-agent: *
Disallow: /
Inzwischen ist die Website fertig erstellt und ich möchte, dass Google diese im Index aufnimmt. Dazu habe ich robots.txt wie folgt geändert:
User-agent: *
Disallow:
Leider durchsucht Google die Website nach wie vor nicht oder indexiert sie nicht. Die letzte Aenderung (Durchsuchen aktivieren) ist jetzt bereits 15 Tage her und die Website ist im Google Index immer noch nicht zu finden.
In den Webmastertools habe ich folgende Informationen gefunden:
- Urls durch robots.txt eingeschränkt
- Zuletzt berechnet am 25.03.2008 (vor 10 Tagen)
Könnte es sein, dass Google wohl das aktualisierte robots.txt eingelesen hat, mit der Indexierung sich aber Zeit lässt?
Wie lange kann das noch gehen?
Kann ich die Indexierung irgendwie forcieren?
Ich hoffe nicht, dass ich grundsätzlich falsche Ueberlegungen anstelle.
Für eure Hilfe und Tipps bin ich euch sehr dankbar.
Werner
Ja, es kann sein, das er sich mit der Indexierung Zeit lässt
Keiner weiss, wie lange das noch gehen kann.
Beschleunigen kannst du das, evtl., mit ein paar Links zu deiner Seite.
Lieben Gruß
Torsten und die Appenzeller
Alle suchen Links, aber keiner trägt sich hier ein? Merkwürdig!
Kann das sein das sich die Tante zur Zeit bei bestimmten Seiten(nach welchem Kriterium auch immer festgelegt) viel Zeit nimmt? Der 25.3. ist auch in meinen Webmaster Tools der Stichtag seit dem nix mehr passiert, obwohl Seiten hinzugekommen sind etc. Google kommt und crawlt zwar, aber im Index sind die neuen Seiten nicht. Das ging schon mal schneller.
bei mir ist ein ähnliches Problem google hat wie verrückt seiten indexiert und dann bei 12000 aufeinmal aufgehört.Dann gingen sie seiten im Index runter auf 10400 und da stehe ich jetzt schon seit 2 wochen und es geht nichts mehr.
Ich möchte euch bestens für eure Hilfeleistungen danken. Aus der Summe eurer Antworten schliesse ich daraus, dass ich jetzt einmal zuerst warten werde und dann Aktionen treffe gemäss euren Vorschlägen.
Der googlebot kommt oft, wenn du
a) ein sehr aktuelles thema hast
b) in kurzen Abständen viel neuen content schreibst
c) du eine "Referenz" bist .. im Sinne von "gefragt".
Wenn deine Seite neu ist, richtet sich der googlebot auch nach deinen eingehenden Links. Ich glaub auch das er schon an den eingehenden Links ableitet "wie tief" gespidert werden soll.
Aber solche Änderungen im bot-Verhalten sind träge, da google erstmal ein "Schema" erkennen muss.
Ich hab mal zwei Monate intwnsiv content erzeugt .. dann 5 Wochen nix. Bis google realisiert hat öfters vorbei zu kommen, hat es etwas gedauert. Dafür spidert google auch noch ne Weile länger, wenn sich kaum was ändert.
Also alles zeitversetzt!
Woher soll gogglobot wissen, dass du grad intensiv was änderst? Google beobachtet das Internet zuerst - nicht deine Seite.