Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

5 Server eine Seite und das Google Problem

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Shockmaster
PostRank 1
PostRank 1
Beiträge: 2
Registriert: 06.09.2004, 10:02

Beitrag von Shockmaster » 06.09.2004, 10:20

Hi mal ne frage

Wir haben 5 Webserver die europaweit verteilt sind alle leiten die Besucher zu unserem Hauptserver in Deutschland um.

Unser Problem ist das Ranking unserer Seite in Google und Co. Wir wollen das alle adressen also .AT .CH .DE .ES allesamt von den Suchmaschienen so verstanden werden als das der Content der Site in dem Entsprechenden Land liegt.

Mein Gedanke war jetzt eine SITEMAP nur für die ROBOTS zu erstellen.

Das heisst die seite liesst aus ROBOT oder BESUCHER

WENN BESUCHER DANN --- gehe zu stammhompage auf Hauptserver

WENN ROBOT DANN --- Bleibe auf lokalem Server und Zeige die Sitemap


Ist das möglich und wenn ja woran kann ich den ROBOT identifizieren

Ich habe eine Liste mit den IP Adressen mancher BOTS unteranderem alle googlebots in den letzen 2 Montaen habe ich mal einen test laufen lassen indem alle IP adressen der Besucher analysiert worden sind ob die in dieser liste sind oder nicht.

Insgesamt waren 9 Robots auf der Seite und in der summe waren sie 33mal da

und zwar diese
REFERER
64.68.82.47
64.68.82.14
64.68.82.30
64.68.82.28
64.68.82.13
64.68.82.33
64.68.82.27
denke mal das sind alles google bots

kommt mir etwas wenig vor. Kann es sein das die indentifikation über die IP adresse nicht richtig funktioniert???

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 06.09.2004, 19:19

Hi Shockmaster,

was Du vor hast ist natürlich möglich. Das ganze nennt sich "cloaking". Problem an der ganzen Sache ist, dass Google soetwas relativ schnell erkennt und Du somit gefahr läufst, gekickt zu werden.

Shockmaster
PostRank 1
PostRank 1
Beiträge: 2
Registriert: 06.09.2004, 10:02

Beitrag von Shockmaster » 06.09.2004, 19:46

hmm ok das sollte nicht sein. Gibt es eine saubere alternative die nicht nach 5 unterschiedlichen Servern mit unterschiedlichem Inhalt schreit ??

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


terese0815
PostRank 6
PostRank 6
Beiträge: 356
Registriert: 04.09.2004, 07:25
Wohnort: Frechen

Beitrag von terese0815 » 06.09.2004, 19:56

5 unterschiedliche Server müssen es nicht sein;)

Problem ist einfach doppelter Content. Da ich Deine Seite nicht kenne ist es auch schwer was zu sagen. Wenn Du viel Content hast, versuche diese auf den unterschiedlichen Projekten so zu splitten, dass sich alle Seiten voneinander unterscheiden. Unterschiedlicher Content wäre jedoch die perfekte Lösung - natürlich auch entsprechend aufwendig.

SvenT
PostRank 4
PostRank 4
Beiträge: 172
Registriert: 26.06.2004, 06:42

Beitrag von SvenT » 14.09.2004, 09:53

andere Frage? wieso stehen Server in der ganzen Welt verteilt nur um eine Weiterleitung zu machen? Andersrum würde ich das ja noch verstehen, aber so...

Ich würde dir folgenden Weg vorschlagen:
Alle Domains auf den Hauptserver und per 301-Redirect auf die Hauptdomain umleiten...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag