Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

5 Server eine Seite und das Google Problem

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Shockmaster
PostRank 1
PostRank 1
Beiträge: 2
Registriert: 06.09.2004, 10:02

Beitrag von Shockmaster » 06.09.2004, 10:20

Hi mal ne frage

Wir haben 5 Webserver die europaweit verteilt sind alle leiten die Besucher zu unserem Hauptserver in Deutschland um.

Unser Problem ist das Ranking unserer Seite in Google und Co. Wir wollen das alle adressen also .AT .CH .DE .ES allesamt von den Suchmaschienen so verstanden werden als das der Content der Site in dem Entsprechenden Land liegt.

Mein Gedanke war jetzt eine SITEMAP nur für die ROBOTS zu erstellen.

Das heisst die seite liesst aus ROBOT oder BESUCHER

WENN BESUCHER DANN --- gehe zu stammhompage auf Hauptserver

WENN ROBOT DANN --- Bleibe auf lokalem Server und Zeige die Sitemap


Ist das möglich und wenn ja woran kann ich den ROBOT identifizieren

Ich habe eine Liste mit den IP Adressen mancher BOTS unteranderem alle googlebots in den letzen 2 Montaen habe ich mal einen test laufen lassen indem alle IP adressen der Besucher analysiert worden sind ob die in dieser liste sind oder nicht.

Insgesamt waren 9 Robots auf der Seite und in der summe waren sie 33mal da

und zwar diese
REFERER
64.68.82.47
64.68.82.14
64.68.82.30
64.68.82.28
64.68.82.13
64.68.82.33
64.68.82.27
denke mal das sind alles google bots

kommt mir etwas wenig vor. Kann es sein das die indentifikation über die IP adresse nicht richtig funktioniert???