Seite 1 von 1
Zusammenhang durchs Impressum
Verfasst: 02.06.2009, 20:42
von Mr.G113
Abend zusammen,
ich habe schon gesucht, weiß aber nicht genau wie. Nun: Angenommen ich habe zwei verschiedene Seiten und möchte nicht, dass die Sumas merken, dass sie vom selben Ersteller sind, so habe ich gelesen, immer schön verschiedene IP's und ordentlich Cookies löschen.
Was bringt das alles, wenn doch auf beiden Seiten im Impressum diesselbe Anschrift stehen und Tante G. ja ohnehin nachschauen kann, wem die Webseiten gehören???
Falls das schon mal geklärt wurde, bitte einfach den Link...

Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 02.06.2009, 21:24
von netnut
Darum sperren viele das Impressum. Das kann Dir aber egal sein, denn bei zwei Seiten ist das Google ebenfalls völlig schnuppe.
Verfasst: 02.06.2009, 21:31
von mgutt
Die meisten bauen Grafiken, statt Texten ein. Das erschwert auch anderen Webmastern die Recherche.
Wegen dem Impressum brauchst Du gar nicht nachdenken. Wichter sind meiner Ansicht nach die Whois-Daten der Domain, denn die sind noch viel leichter zu vergleichen als einen speziellen Filter für Impressen zu realisieren.
Verfasst: 03.06.2009, 12:42
von TomDD
wie kann ich das impressum sperren, über die robots.txt?
Verfasst: 03.06.2009, 13:00
von JohnBi
Aber Google zieht sich die Dateien trotzdem rein...
Verfasst: 03.06.2009, 13:41
von mgutt
Denkbar ist auch ein JS-Fenster per onclick und im href einfach nur ne Raute verlinken. So dürfte Google auch nichts einlesen.
Verfasst: 03.06.2009, 13:43
von Mr.G113
Interessant =)
Ach und bei zwei seiten interessiert es google nicht, wenn ich von A nach B verlinke (und auch nur sorum (gibt es das wort?)), also der Link ist vollwertig, obwohl es offensichtlich von demselben ist???
Verfasst: 03.06.2009, 13:46
von mgutt
Da scheiden sich die Geister. Die einen sagen, dass der Wert nicht vollwertig ist, weil der Link von der gleichen IP kommt und die anderen sagen, dass er normal bewertet wird.
Verfasst: 03.06.2009, 13:58
von profo
Aber Google zieht sich die Dateien trotzdem rein...
Das würde meinen Erfahrungen widersprechen. Ich kann mir zwei Dinge vorstellen:
1. falsche robots.txt (z.B. erst Allow: und dann Disallow: usw.). Du könntest in den GWT testen, ob Google eine URL schluckt oder nicht
2. Google cacht die robots.txt für 24 Stunden. Wenn Du sie veränderst, gilt für ein gewisses Zeitfenster noch die alte Version.