Verzeichnis oder Webkatalog = badwords für google?
Verfasst: 30.07.2005, 20:42
salut ,
hab mir vor einigen wochen mal ein kleines themenspezifisches verzeichnis gebastelt (keine sorge es ist nicht der xte blöde bizkatalog)
wer kucken will www.k*unstverzeichnis.com
habe nun aber festgestellt das bei den meisten seiten das letzte cachedatum schon wochen alt ist.
bei anderen meiner sites (keine verzeichnisse oder kataloge) mit ähnlicher LP wird fast täglich gespidert und der cache ist deutlich aktueller.
darauf bin ich mal ein wenig durchs netz geschlendert und glaube entdeckt zu haben das bei allen sites (auch hohe LP) die die begriffe "webkatalog" oder "verzeichnis" im title oder in der firstleveldomain haben die cacheversionen im vergleich zu anderen sites deutlich älter sind.
kann das sein das google da was filtert.
so wie if{verzeichnis}=spiderrate-1/4tel oder so? (ich glaub die syntax ist falsch)
seh ich das richtig oder träum ich.?
gruss axel
hab mir vor einigen wochen mal ein kleines themenspezifisches verzeichnis gebastelt (keine sorge es ist nicht der xte blöde bizkatalog)
wer kucken will www.k*unstverzeichnis.com
habe nun aber festgestellt das bei den meisten seiten das letzte cachedatum schon wochen alt ist.
bei anderen meiner sites (keine verzeichnisse oder kataloge) mit ähnlicher LP wird fast täglich gespidert und der cache ist deutlich aktueller.
darauf bin ich mal ein wenig durchs netz geschlendert und glaube entdeckt zu haben das bei allen sites (auch hohe LP) die die begriffe "webkatalog" oder "verzeichnis" im title oder in der firstleveldomain haben die cacheversionen im vergleich zu anderen sites deutlich älter sind.
kann das sein das google da was filtert.
so wie if{verzeichnis}=spiderrate-1/4tel oder so? (ich glaub die syntax ist falsch)

seh ich das richtig oder träum ich.?
gruss axel