Seite 1 von 1
doppelter content bei "add url"-seiten?
Verfasst: 06.01.2005, 03:10
von schorsch
hallo allerseits
wann ist es denn sinnvoll in den metat-tags das zu verwenden:
hat es auch was damit zu tun um eventuell doppelten content zu verhindern.
es gibt ja viel webkataloge, bei denen man in die entsprechende kategorie gehen soll und dort auf "Webseite hinzufügen", um seine seite anzumelden. nun ist da ja dann pro kategorie auch eine eigene "add url"-seite. das problem ist nur, das diese seiten verdammt ähnlich sind.
was sind eure erfahrungen, wie reagiert google auf solche seiten oder was tut ihr dagegen.
hat das was mit dem obigen beispiel zu tun?
gruss
schorsch
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Verfasst: 06.01.2005, 06:45
von AskeT
Hallo Schorsch,
Der von Dir genannte No-Cache-Tag führt meines Wissens nur dazu, das die Seite nicht aus dem Browser-Cache geladen wird. Stattdessen wird die gesamte Seite immer neu vom Server geladen.
Um nicht im Google-Cache aufzutauchen, verwendet man:
oder
Hiermit wird den Spidern/ dem Googlebot ein archivieren der Seite untersagt.
Ich denke, der No-Cache-Tag auf den Anmeldeseiten beim DMOZ wird aus anderen Gründen verwendet.
Gruß
AskeT
Verfasst: 06.01.2005, 08:17
von bull
Exzellenter Artikel:
https://www.google.com/search?q=https%3 ... =0&start=0
(notfalls kopieren und einfügen, um Referer zu unterbinden)
dort #13
edit: linkfix
Verfasst: 06.01.2005, 11:32
von Jojo
So klappt das nicht bull. Kopieren in das Google-Suchfeld und dann über den Link besuchen.
Verfasst: 06.01.2005, 13:44
von schorsch
ok danke @ bull
aber wie sieht das jetz mit den add-url-seiten aus sollte man die sperren, denn die können ja auch behilflich für die interne linkstruktur sein.
gruss
schorsch
Verfasst: 06.01.2005, 16:01
von Apotheker
Es ist nicht lange her, da war es noch toll, zu jeder Seite noch separate "statische" Seiten zu machen für "Tell-A-Friend", "Druckversion", "Feedback zu dieser Seite" usw. Mittlerweile sehe ich das als sehr heikel an und lasse solche Seiten über die robots.txt und/oder per Meta-Tag nicht mehr indizieren.
Verfasst: 06.01.2005, 16:09
von schorsch
ja hab ich mir auch schon fast gedacht. hab jetz auch mal sicherheitshalber ein noindex reingemacht.
weiss jemand was in wiefern etwas prozentual gleich sein muss, dass es als doppelter content zählt, also ist eine 80% übereinstimmung schon doppelter content oder erst ab 90%. gibts da irgendwelche erfahrungswerte?
gruss
schorsch