Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Kleines dummes Google-Problem....

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
PapaRatzi
PostRank 6
PostRank 6
Beiträge: 366
Registriert: 02.12.2005, 12:03

Beitrag von PapaRatzi » 27.07.2008, 13:51

Hi,

heute beim täglichen Status-Checken ist mir aufgefallen, dass unter der Site-Abfrage bei einer unserer Webseiten plötzlich die https-Variante der Index-Datei als erstes gelistet war und die eigentliche Index nicht aufgetaucht ist....

Das ist natürlich ärgerlich, da wir in den letzten Wochen einen Besucherrückgang erleiden mussten und das oben beschriebene Problem wahrscheinlich die Ursache ist.

Nun habe ich als erstes die robots.txt bei der HTTPS-Variante per htaccess auf eine seperate (robots-https.txt) weitergeleitet und dort das spidern dem Google-Bot verboten.

Meine Frage wäre nun, gibt es sonst noch etwas zu tun um das Ganze schnellst möglich wieder gerade zu biegen?

Ansonsten wünsche ich einen schönen Restsonntag!

Grüße
PapaRatzi

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Malte Landwehr
PostRank 10
PostRank 10
Beiträge: 3474
Registriert: 22.05.2005, 10:45

Beitrag von Malte Landwehr » 28.07.2008, 11:15

PapaRatzi hat geschrieben:Das ist natürlich ärgerlich, da wir in den letzten Wochen einen Besucherrückgang erleiden mussten und das oben beschriebene Problem wahrscheinlich die Ursache ist.
Welche Seite bei der Site-Abfrage ganz oben steht dürfte deine Besucher herzlich wenig interessieren. Wichtiger ist die Frage ob ihr in den SERP gefallen seid.
Die 45 wichtigsten SEO-Tools und wie ich sie nutze.

PapaRatzi
PostRank 6
PostRank 6
Beiträge: 366
Registriert: 02.12.2005, 12:03

Beitrag von PapaRatzi » 28.07.2008, 12:20

... also es gab einen sehr starken Abfall in den Serps, kaum ein Keywords rankt noch. Besucherrückgang ca. 70 %.

Top10-Seiten sind teilweise unter den ersten 1000 Suchergebnissen nicht zu finden.

Ich könnte mir vorstellen, dass durch das rausfliegen der "doppelten" http-Index, die Verbindung zu den restlichen Seiten gekappt wurde.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


PapaRatzi
PostRank 6
PostRank 6
Beiträge: 366
Registriert: 02.12.2005, 12:03

Beitrag von PapaRatzi » 28.07.2008, 13:23

DC dies könnte tatsächlich eine Mitursache sein, komisch nur, dass es auch sämliche Unterseiten betroffen hat, welche so nicht doppelt vorhanden sind....

bjoerntantau
PostRank 6
PostRank 6
Beiträge: 405
Registriert: 30.10.2007, 11:59
Wohnort: Hamburg

Beitrag von bjoerntantau » 28.07.2008, 13:30

...verstehe ich dich richtig? Du hattest Exemplare der gleichen Seiten mit identischen Inhalten unter "http://" und "https://" im Index, und die "https://"-Varianten sind jetzt rausgeflogen und die anderen ranken nicht mehr ordentlich? Könnte DC sein, allerdings auch ein anderer Penalty. An deiner Stelle würde ich mich mit "mod_rewrite" beschäftigen und dafür sorgen, dass alles immer nur unter EINEM Präfix, vorzugsweise "http://" erreichbar ist. Dann sollte es solche Probs nicht mehr geben...

PapaRatzi
PostRank 6
PostRank 6
Beiträge: 366
Registriert: 02.12.2005, 12:03

Beitrag von PapaRatzi » 28.07.2008, 14:20

tameco: danke für deine antwort...

also es befindet sich eigentlich "nur" die index.php zweimal im Index, nämlich unter https://www.domain.de/index.php und unter https://www.domain.de/index.php

die anderen Unterseiten sind davon erstmal nicht betroffen, ranken aber trotzdem "gar nicht"....

Das Problem ist, dass wenn ich keine https-Seiten verfügbar mache, es dann Problem mit dem Zertifikat gibt und unter Umständen die Verschlüsselung einiger Elemente nicht richtig funktioniert.

Daher hab ich das mit einer getrennten robots.txt versucht. Ich frage mich aber, ob ich vielleicht die https://index.php seperat nochmal aus dem google-index löschen soll, wenn das denn geht..

MaxL
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 07.07.2008, 16:44
Wohnort: Bonn

Beitrag von MaxL » 29.07.2008, 10:39

Das hier ist in den Webmaster-Tools zu finden:

Führen Sie zum Blockieren einer Seite oder eines Bildes auf Ihrer Website zunächst einen der folgenden Schritte aus und reichen Sie dann Ihren Antrag auf Entfernung ein:

* Stellen Sie sicher, dass der Content nicht mehr online ist. Beim Aufrufen der zu entfernenden Seite bzw. des zu entfernenden Bildes muss der HTTP-Statuscode 404 (nicht gefunden) oder 410 zurückgegeben werden. Hilfe Hilfe
* Blockieren Sie den Content mithilfe eines "NOINDEX"-Meta-Tags. Hilfe Hilfe
* Blockieren Sie den Content mithilfe einer robots.txt-Datei. Hilfe Hilfe

PapaRatzi
PostRank 6
PostRank 6
Beiträge: 366
Registriert: 02.12.2005, 12:03

Beitrag von PapaRatzi » 29.07.2008, 17:24

MaxL,

danke, hab ich geb jetzt zusätzlich noch die 404 Meldung aus....

Ich hoffe, dass sich nun das ganze wieder "einrankt".

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag