Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google zeigt falsche URL an

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
little_strawberry
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 02.02.2010, 16:19

Beitrag von little_strawberry » 30.06.2010, 08:27

Hallo an alle,

da ich mich mit den technischen Aspekten von Google kaum auskenne, hier meine Frage:

Wir haben unsere Seite schon vor Monaten von den Standard-URLS www.abc.com/id=341&L=1 usw (also immer mit einer Seiten-ID und dahinter die jeweilige Sprachversion) umgestellt auf Speaking URLs. Außerdem haben wir jede Sprache eine eigene Domain zugewiesen, es gibt jetzt also .de, .com, .es und .fr als eigene Seiten. Leider sind bei der site:abc.com Suche immernoch unzählige dieser ID-URLs gelistet, die zwar auf die richtige Seite (ID-Nummer), aber nicht mehr auf die richtige Sprache verweisen.

Dummerweise sind diese bei Google ohne Meta-Tags und mit den falschen angezeigten URLs und einem sinnlosen Titel überschrieben. Die Seiten sind ja schon seit Monaten umgenannt, und laut Webmaster-Tools wird unsere Seite regelmäßig gecrawlt. Zählen die Seiten dann alle als doppelter Content, da sie ja unter zwei verschiedenen URLs zu erreichen sind? Bzw. kann man das Problem mit 301ern beheben, also aktualisiert Google dann die angezeigten SERPs bzw. nimmt eine Variante heraus, da die ja sonst doppelt vorkommen würden (wenn sie aktualisiert werden)? :oops:

Schonmal vielen Dank im Voraus!

LG

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 30.06.2010, 08:36

natürlich sollte man bei einem "url-redesign" die alten urls per 301 redirect umleiten.
sollte ja mit mod_rewrite kein problem sein, selbst die umleitung in abhängigkeit zur sprache.

little_strawberry
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 02.02.2010, 16:19

Beitrag von little_strawberry » 30.06.2010, 10:15

hallo nullpointer,

das haben wir ja schon gemacht, scheinbar hat Google die ganz alten Seiten jedoch immernoch im Index (die müssten von vor 3-4 Jahren sein). Deshalb hab ich mir die Sinnfrage gestellt. Wir wollen ja, dass die unschön aussehenden SERPs, die es ja quasi doppelt gibt (einmal als alte und unschöne Version und einmal SEO-technisch aufpoliert), aus den SERPs genommen werden. Hab da mal was von einem Google Webseiten-Entfernungstool gehört, aber wir wollen ja nur, dass der alte Link verschwindet, und nicht die Seite, da es die in einer aktuellen Version ja in den Suchergebnissen gibt.

LG

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Nullpointer
PostRank 10
PostRank 10
Beiträge: 4790
Registriert: 22.04.2005, 19:14
Wohnort: West Berlin

Beitrag von Nullpointer » 30.06.2010, 12:21

wenn der 301er richtig gesetzt ist, sollten die seiten (mit den alten urls) auch rausfliegen.
das dauert natürlich. das kann mehrere monate dauern, bis alle seiten aus dem index sind.

das entfernungstool würde ich dafür nicht bemühen.

Pschemi
PostRank 5
PostRank 5
Beiträge: 237
Registriert: 11.08.2010, 14:36

Beitrag von Pschemi » 09.11.2010, 14:45

Hi,
ich habe das Problem, dass Google irgend wie nur einen Teil der Seite indexiert und auch noch alte URLs drin behällt.

301 ist aktiv und alles auf index, follow !

und habe die Änderungen schon sooo... vor 3 Monaten gemacht.

Kann das unter Umständen echt so lange dauern?

Laut google webmaster Tool hat google die robots datei vor 23 Stunden herunter geladen. heist das auch, dass die Seite dann Indexiert wurde?


Gruß.

WilliWusel
PostRank 9
PostRank 9
Beiträge: 1257
Registriert: 21.08.2006, 14:55

Beitrag von WilliWusel » 09.11.2010, 15:35

Pschemi hat geschrieben:Laut google webmaster Tool hat google die robots datei vor 23 Stunden herunter geladen. heist das auch, dass die Seite dann Indexiert wurde?
Das steht ebenfalls in den WMTs unter "Website-Konfiguration", "XML-Sitemaps": URLs übermittelt und URLs im Web-Index.

Pschemi
PostRank 5
PostRank 5
Beiträge: 237
Registriert: 11.08.2010, 14:36

Beitrag von Pschemi » 09.11.2010, 19:25

Hi,
und woran kann es liegen, dass sie Site nicht vollständig Indexiert wird?

WilliWusel
PostRank 9
PostRank 9
Beiträge: 1257
Registriert: 21.08.2006, 14:55

Beitrag von WilliWusel » 10.11.2010, 09:12

Seiten per robots.txt gesperrt, DC, zu tief verschachtelt, zu unwichtig oder einfach keine Lust. :roll:

Pschemi
PostRank 5
PostRank 5
Beiträge: 237
Registriert: 11.08.2010, 14:36

Beitrag von Pschemi » 15.11.2010, 21:40

ist aber auf:
<meta name="robots" content="index, follow" />

Und Verlinkung auf die Seite geht von der Frontpage aus, komisch!

Und DC glaube ich auch nicht zu haben...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag