Seite 1 von 1

Google indiziert Unterseiten zu denen es keine Links gibt???

Verfasst: 10.10.2012, 10:42
von kasztan007
Hi Leute,
in Webmastertools und in den Suchergebnissen merke ich daß Urls erfasst worden sind welche WIRKLICH nirgendwo verlinkt sind.
mein CMS ist Fehlertollerant und spuckt manchmal auch Content raus, wenn die Url nicht 100% ig stimmt.

Hier ein paar konkrete Beispiele damit Ihr das in Action seht.
richtige URL: https://www.rockandroad.de/tattoo/news/ ... u_129.html
(laut webmaster Tools 1.910 interne Links. Die kommen auch meistens aus urls die es gar nicht gibt z.B. /base/kleinanzeigen/seite_27/ oder /base/videoblog/seite_33/)

Ich dachte es ist gut wenn ich die Url vom statischem Content, des sich niemals ändert immer mit .html beende. Doch dann sehe ich sowas.
falsche URL: https://www.rockandroad.de/tattoo/news/ ... 9/seite_1/
(laut webmaster Tools 3.414 interne Links. Die auch aus Urls die es nur theoretisch geben z.B. /tattoo/k%FCnstler/seite_110/?set_per_page1=4&set_auszug1=1.)

Die Folge ist daß ich in den Suchergebnissen oft mehrmals auftauche und das oft mit leerem Content.
https://www.google.de/search?q=vampirfrau+in+passau

Zur Zeit zweites und drittes Ergebniss. Ein mal richtik, mit Content und ein mal zur leeren Seite, ohne Content.

Der Parameter seite_x wird nur bei Listen verwendet die mehr als 8 Artikel auflisten und das ist NUR in der dritten Ebene der Fall, also z.B.
/tattoo/motive/seite_x und NIE in /tattoo/motive/Schwalben/seite_x

Wo hat er das her? und vor allem, wie kommt er darauf das .html abzuschneiden. Das ist nirgendwo so verlinkt.

1. Ist es gut oder schlecht für mich, wenn die Seite unnötig mehrmals in den serps erscheint?
2. Bokomme ich da nicht duplicate content angerechnet?
3. Fällt nicht das Ranking eines Links, wenn der Content auch unter einem anderem Link erreichbar ist?

Ich kann doch nicht jede von diesen 100 Tausenden von Möglichkeiten die keine Contents außer der Navi+Footer ausgeben.(seite_57, ubersicht/seite_74 usw...) per Robots sperren, oder? Soll ich bei einer falschen Url knallhart nen 404 ausspucken lassen?

Danke im Voraus für Tipps

Verfasst:
von

Verfasst: 10.10.2012, 15:16
von bionade
(laut webmaster Tools 1.910 interne Links. Die kommen auch meistens aus urls die es gar nicht gibt z.B. /base/kleinanzeigen/seite_27/ oder /base/videoblog/seite_33/)
Seiten die es nicht gibt erhalten Links von Seiten die es nicht gibt. Korrekt? Falls ich das richtig verstehe gibts nur eine Antwort: Lass das sein, G. baut wahrscheinlich mehr Scheiss als wir glauben. Kümmere dich um andere Sachen. SEO ist ohnehin ein Fass ohne Boden.

Verfasst: 11.10.2012, 00:21
von manori
Spontane Idee: Vielleicht liegt es ja an den Einstellungen im CMS ... Nur so ein (wohl nicht gerade abwegiger) Gedanke.

Verfasst:
von

Verfasst: 11.10.2012, 07:20
von Lika
Würd auch erstmal beim CMS schauen, ob du da was anderes einstellen kannst.
Google ist mittlerweile sehr tricky und testet manchmal mit den URLs rum. Was dabei raus kommt, siehst du ja gerade :wink:

Das Problem mit dem DC hast du jetzt allerdings. Von daher würde ich schon gucken, ob es eine Möglichkeit gibt, die Einstellungen anzupassen.

Verfasst: 11.10.2012, 09:32
von kasztan007
Danke erst mal. Das wollte ich nämlich hören
Lika hat geschrieben:Google ist mittlerweile sehr tricky und testet manchmal mit den URLs rum. Was dabei raus kommt, siehst du ja gerade :wink:
Klar kann ich die Einstellungen anpassen weil ich das Ding selber von A bis Z programmiert habe. Die Frage ist nur, was wäre in diesem Fall ein richtiges Verhalten. Einen 404 Melden wenn eine Url aufgerufen wird die es nicht gibt?
Oder soll ich es so lassen und hoffen daß G. die Struktur mit der Zeit selbst kapiert.

Re: Google indiziert Unterseiten zu denen es keine Links gib

Verfasst: 11.10.2012, 13:06
von Hannelore-Müller
kasztan007 hat geschrieben:Hi Leute,
in Webmastertools und in den Suchergebnissen merke ich daß Urls erfasst worden sind welche WIRKLICH nirgendwo verlinkt sind.
mein CMS ist Fehlertollerant und spuckt manchmal auch Content raus, wenn die Url nicht 100% ig stimmt.
Durchsuch doch mal Deine Apache-Logdateien, über welchen Referrer die Seiten aufgerufen werden. Ist manchmal ganz erhellend :-)

Unter Linux:

Code: Alles auswählen

cat access.log | grep falsche_url
Gruß
Hannelore

Verfasst: 16.10.2012, 13:03
von kasztan007
Gesagt getan, Ich sehe da keinen Referrer und als Browser ist ein chrome eingetragen.
Also vermutlich schon Google der sich komischerweise als chrome und nicht als Googlebot ausgibt. In den Webmastertools sehe ich auch gerade daß es ein bisschen besser zu werden scheint. Er indiziert nicht mehr Urls die nur den Header und Footer hevorbringen sondern nur noch urls die einen Content bringen aber nirgendwo verlinkt sind :crazyeyes:

Normallerweise soll es also heissen:
domain.de/rubrik/unterrubrik/artikeltitel.html
Das CMS spuckt aber den selben content aus wenn man
domain.de/rubrik/unterrubrik/artikeltitel/
domain.de/rubrik/unterrubrik/artikeltitel/seite_1
domain.de/rubrik/unterrubrik/artikeltitel/seite_1/
eingibt.

Die letzten drei Beispiele sind nirgendwo gelinkt, er indiziert Sie aber.
Gibt das auch duplicate Content wenn es nicht verlinkt ist?

Wenn ich die Contentausgabe bei diesen drei Urlschemen unterbinde oder einen 404 ausspucke verliere ich doch einiges an indizierten Seiten und somit Ranking, oder?

Verfasst: 16.10.2012, 14:17
von Lyk
bei mir liest google sogar meine bakdatein aus und zeigt in den webmastertools dies unter html als fehler wegen doppeltem titel und description.

hab alle bakdateien geändert und googel sucht nun nach diesen dateien und zeigt mir in den webmastertools fehler, dass einige urls nicht zu erreichen sind. total krazy das ganze...