ich habe ihrgendwo ein atikel gelesen von sitemaps. jetzt wollte ich mal ein paar praktiker fragen ob es nachteile bringt, wenn ich nicht alle seiten in der sitemaps eintrage.
ja, du reduzierst Wahrscheinlichkeit, Vollständigkeit und Geschwindigkeit der Aufnahme der Seiten in den Index. Das solltest diu aber selbst und etwas gründlicher nachlesen: https://www.google.de/search?q=Google+W ... s+Sitemaps
Neben Einzigartigkeit sind unter anderem auch Aktualität und Umfang einer Präsenz wichtige Rankingkriterien.
habe gestern eine sitemap datei hochgeladen wo 536 seiten von mir drin sind. die seiten sind eigendlich alle miteinander verlinkt. mal schauen ob es was bringt.
meine jetztige indexierung bei google: 77
im januar waren es noch 298
ich weiß auch noch nicht warum google mich so drastisch rausgeschmissen hat. habe aber die letzden 3 jahre immer ein auf und ab.
Wenn die Seite schon seit 3 Jahren im Index ist und die Zahl der indizierten Seiten zurückgeht würde ich mal eher darauf tippen, daß Google etwas an Deiner Seite nicht mag, die interne Verlinkung nicht optimal ist oder Du mehr Deeplinks brauchst.
Sitemaps haben sicher ihre Berechtigung, aber ein Allheilmittel um die Seiten dauerhaft im Index zu halten sind sie nicht.
Forward Up>> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM
ich glaube das es an meinen neuen seiten liegt. ich habe nähmlich seiten die den gleichen text haben und sich nur in ein paar wörtern unterscheiden. damals habe ich den text kurz gehalten und jezt habe ich den text auf neue seiten geschrieben und den text erweitert. also gehe ich davon aus, dass google meint ich würde damit spamen.
die neuen seiten habe ich aber schon seit 6 monaten online. deswegen habe ich da nicht mehr dran gedacht.
wieviel text kan ich denn auf verschiedenen seiten gleich halten ohne das google den als spam sieht. gibt es da richtlienien?
das sieht google nicht als spam, sondern als doublicate content, der nicht indiziert wird. wenn du 200 neue seiten erstellst, auf denen nix neues steht werden die auch nicht indiziert.
ja klar, aber das ist doch normal, dass die seiten das selbe layout haben und der text kann doch auch gleich sein. die firmenadresse und die versandbedingungen und preise ändern sich bei den artikeln halt nicht oft.
meinst du 200 seiten als beispiel oder ist das ne grenze?
ich habe ne neue domain bekommen und habe meine seiten alle auf die neue domain geladen auf die alte domain habe ich mit einen backup von vor einem jahr gefüttert.
jetzt hat google das als doublicate content anerkannt, weil die seiten auf 2 domains zu erreichen war und zwar auf der neuen domain und im cache der alten domain!
so ein mist.
jetzt habe ich das alles wieder rückgängig gemacht.
wie lange das wohl dauert bis google mich wieder vernünftig cache´t.
edit:
habe mich bei google webmastertool angemeldet und die neue domain im cache löschen lassen und die neue domain mit htaccess auf die fehlerseite von der alten seite geleitet. das heißt das wenn jemand auf die neue seite gekommen währe auf die alte seite kommt mit der fehlermeldung das die seite nicht gefunden wurde.