Seite 1 von 1

Google Absturz Gründe?

Verfasst: 18.09.2006, 07:12
von winsoftware
Hallo,

ich habe gelesen, dass einige sich seit Samstag wieder stark nach oben verbessert haben, die Ende Juni mal ganz abgeschmiert sind. Bei anderen war es wohl eher umgekehrt. Da wir auch betroffen sind, wollte ich mal fragen, wo genau die Gründe liegen können.
Es geht besonders um einige Unterseiten von https://www.winsoftware.de.
Die Startseite wird zu den entsprechenden Keywords noch ganz normal gefunden. Dafür sind einige Unterseiten komplett aus den TOP100 verschwunden. Die Seiten sind ganz normal optimiert (ohne Spam oder Sonstiges). Meine einzige Vermutung wäre doppelter Content. Könnte das sein? Ich mache es mal an einem Beispiel deutlich:

Für die Kombi "Nero 7" wurde folgende Seite immer unter den Top10 gefunden: https://www.winsoftware.de/nero-7,46,288.htm

Wenn man auf "Start Download" klickt, kommt man auf diese Seite:
https://www.winsoftware.de/Download,Nero+7,288.htm
Dort taucht die Beschreibung nochmal auf, um die Relevanz der Adsense Anzeigen zu verbessern.
Und im Software-Kommentare Forum ist die Beschreibung ebenfalls nochmal enthalten: https://forum.winsoftware.de/software-k ... 7-387.html

Desweiteren habe ich beobachtet, dass auf den Suchergebnisseiten wieder ältere Seiten mit einer dynamischen URL auftauchen und die entsprechenden mod_rewrite urls nicht mehr.
Hat jemand ähnliches beobachtet und woran kann es also liegen?
Oder ist es einfach nur Zufall und somit Pech? :)

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 18.09.2006, 07:52
von Fox Mulder
Die von Dir genannten Seiten sind kein Doppelter Content im Sinne von Google auch wenn sich Teile der Beschreibung überschneiden.

Wahrscheinlicher für Dein Problem ist die erreichbarkeit Deiner Domain mit www und ohne www. und den dadurch verursachten DC.
https://winsoftware.de
https://www.winsoftware.de

Hier mal lesen was man da machen kann:
https://www.abakus-internet-marketing.d ... -7439.html

Gruss

Verfasst: 18.09.2006, 08:06
von winsoftware
danke für den tipp, aber das war bisher auch nie ein problem und wohl auch jetzt nicht die ursache. habs aber mal eingebaut :)

noch eine frage:

die meisten dc zeigen mir jetzt zu einem bestimmten suchbegriff die platzierung 44-46 und als url die alten seiten ohne rewrite.
einige wenige dc zeigen die alten besseren platzierungen mit den optimierten seiten.
bringt es was, die seiten index.php?bla=4563&blub=6436 auf die neuen umzuleiten, so dass die dynamischen seiten gar nicht mehr erreichbar sind über diese adresse?

Verfasst:
von

Re: Google Absturz Gründe?

Verfasst: 18.09.2006, 08:45
von Fox Mulder
winsoftware hat geschrieben:Desweiteren habe ich beobachtet, dass auf den Suchergebnisseiten wieder ältere Seiten mit einer dynamischen URL auftauchen und die entsprechenden mod_rewrite urls nicht mehr.
Das könnte auf einen Fehler in Deiner mod_rewrite Logik hinweisen,
der wiederum dazu führt, dass einzelne Dokumente doppelt in Google aufgenommen werden.

Gruss

Verfasst: 18.09.2006, 08:47
von Fox Mulder
winsoftware hat geschrieben:bringt es was, die seiten index.php?bla=4563&blub=6436 auf die neuen umzuleiten, so dass die dynamischen seiten gar nicht mehr erreichbar sind über diese adresse?
Das würde ich nur als letzte Notlösung machen, wenn Du den Fehler im mod_rewrite nicht findest, da Du den Fehler damit nicht behebst.

Verfasst: 18.09.2006, 09:01
von dmp_sthlm
Thema doppelter Content:

https://www.google.de/search?q=Dieser+B ... =&filter=0

Definitiv ein Problem.

Verfasst: 18.09.2006, 09:01
von winsoftware
hmm ich denke nicht, dass dort ein fehler ist. man gelangt über die seite zu keiner dynamischen url mehr. diese existieren aber noch, was sich ja auch nicht vermeiden lässt :lol: aber ich möchte google jetzt daran hindern, diese bei den serps anzuzeigen, weil es ja im moment so aussieht, als seinen die neuen seiten gekickt worden und die dynamischen sind wieder drin. wie kann man das am besten anstellen?

Verfasst: 18.09.2006, 09:11
von Fox Mulder
winsoftware hat geschrieben:diese existieren aber noch, was sich ja auch nicht vermeiden lässt
Genau das ist der Fehler: Die Seiten bzw. URL dürfen nicht mehr existieren bzw. werden durch mod_rewrite auf statische URL umgeleitet!
Existieren Sie weiter hast, Du auf kurz oder lang ein Problem, siehe Aquarium Beispiel oben.

Verfasst: 18.09.2006, 09:19
von winsoftware
ja und genau das will ich ja ändern. dabei hab ich jetzt aber ein weiteres problem.

Beispiel: Die Rubrik 3d-Tools ist über index.php3?menu=70 zu erreichen und über 3d-tools,70.htm weil die rewrite Regel lautet: irgendwelchezeichen,menuid.htm
und "irgendwelchezeichen" kommt in dem fall aus der datenbank.
eine umgekehrte regeln wo ich die dynamische adresse auf 3d-tools,70.htm umleite ist ja nicht möglich, weil ich in der .htaccess keinen datenbankzugriff hab.
dann könnte ich die adresse höchstens allgemein menu,70.htm nennen, aber dann hätte ich ja wieder zwei seiten.

könnte ich die dynamischen adressen aus dem index bekommen, indem ich einfach alles dynamische auf die startseite umleite?

oder hat sonst jemand einen tipp, wie ich die dynamischen seiten am besten aus dem index bekomme?

Verfasst: 18.09.2006, 12:38
von winsoftware
dmp_sthlm hat geschrieben:Thema doppelter Content:

https://www.google.de/search?q=Dieser+B ... =&filter=0

Definitiv ein Problem.
das Problem sollte gelöst sein. nach und nach müssten die doppelten seiten verschwinden.

nur wie bekomme ich am besten die dynamischen seiten raus?
vielleicht in der robots.txt die adressen mit "?" verbieten?

Verfasst: 18.09.2006, 13:13
von Fox Mulder
winsoftware hat geschrieben:vielleicht in der robots.txt die adressen mit "?" verbieten?
Genau und dann mit der urlconsole löschen:
https://services.google.com:8882/urlconsole/controller
"Löschen Sie Seiten, Unterverzeichnisse oder Bilder mithilfe einer robots.txt-Datei. "
Achtung, prüfe genau was Du löscht da es kein undo gibt :wink:

Verfasst: 19.09.2006, 09:47
von winsoftware
kann das den der grund gewesen sein oder kommt auch noch etwas anderes in frage?!

es sind ja wie gesagt nur unterseiten betroffen. die startseite z.b. wird immer noch in den top10 gefunden.

mal sehen wann die seiten dann alle wieder zurück sind. wird vermutlich n bissl dauern?

Verfasst: 19.09.2006, 11:49
von winsoftware
Fox Mulder hat geschrieben:
winsoftware hat geschrieben:vielleicht in der robots.txt die adressen mit "?" verbieten?
Genau und dann mit der urlconsole löschen:
https://services.google.com:8882/urlconsole/controller
"Löschen Sie Seiten, Unterverzeichnisse oder Bilder mithilfe einer robots.txt-Datei. "
Achtung, prüfe genau was Du löscht da es kein undo gibt :wink:
reicht es nicht, wenn ich folgendes in die robots.txt schreibe?

User-agent: Googlebot
Disallow: /*?

die dynamischen seiten lauten alle: index.php3?blabla
ich kann ja jetzt schlecht meine index.php3 aus dem index löschen
lassen oder?