Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Domain soll nicht erscheinen (mal was anderes)

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 11.03.2005, 18:37

Hallo! Ich habe einen neuen Kunden, der folgendes möchte: Eine Domain, die frei zugänglich ist (ohne PW oder ähnliches), die aber in Suchmaschinen NICHT erscheint. Was fällt Euch dazu ein? Habe bisher:
- robots.txt
- nofollow, noindex
... aber andere Threads zeigen ja auch, dass sich die Suchmaschinen manchmal nicht dran halten. Sonst noch Ideen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

netzwerkler
PostRank 3
PostRank 3
Beiträge: 94
Registriert: 07.02.2005, 22:05
Wohnort: Berlin

Beitrag von netzwerkler » 11.03.2005, 18:40

Wie wäre es mit Cloaking? Dem googlebot einfach nur leere Seiten ausliefern.

Mirko

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 11.03.2005, 18:42

Gute Idee. Kann man sich drauf verlassen, das der googlebot sich immer meldet und nicht auch mal als InternetExplorer vorbeischaut?

Ein Problem ist halt, wenn man verlinkt wird (was man wohl nicht vermeiden kann), ist man vermutlich - trotz leerer Seiten - in Google unter dem Linktext zu finden.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


netzwerkler
PostRank 3
PostRank 3
Beiträge: 94
Registriert: 07.02.2005, 22:05
Wohnort: Berlin

Beitrag von netzwerkler » 11.03.2005, 20:14

mcchaos hat geschrieben:Gute Idee. Kann man sich drauf verlassen, das der googlebot sich immer meldet und nicht auch mal als InternetExplorer vorbeischaut?
Man könnte auf den User Agent und bekannte IP-Netze filtern. 100 Prozent wird man wohl nicht erreichen.
mcchaos hat geschrieben:Ein Problem ist halt, wenn man verlinkt wird (was man wohl nicht vermeiden kann), ist man vermutlich - trotz leerer Seiten - in Google unter dem Linktext zu finden.
Da hilft dann nur eine htaccess-Datei.

Mirko

Apotheker
PostRank 7
PostRank 7
Beiträge: 520
Registriert: 18.06.2004, 11:04
Wohnort: Ellas

Beitrag von Apotheker » 11.03.2005, 23:47

Wie wär's, die Domain gezielt zu verbrennen? Da kann man sich mal so richtig billig austoben! Den schönen, sichtbaren Teil mit robots.txt usw. sperren und mit haufenweise hidden text supermiese Unterseiten für die Sumas präsentieren.

sean
PostRank 10
PostRank 10
Beiträge: 3396
Registriert: 05.01.2004, 20:26
Wohnort: Leipzig/Karlsruhe

Beitrag von sean » 12.03.2005, 00:29

alle Inhalte per Javascript ausgeben :-) Vielleicht noch kodieren?

sean

overflood
PostRank 5
PostRank 5
Beiträge: 266
Registriert: 02.03.2005, 16:44
Wohnort: Kassel

Beitrag von overflood » 12.03.2005, 02:47

man muss sich ja nicht schlecht machen, man kann die bots doch per htaccess aussperren, das wäre wohl die sinnvollste variante, not? so werden auch alle unterseiten mit eingeschlossen - logisch. ip-netze, botnamen, und falls doch ein bot durchkommt ihm eine andere site anzeigen lassen. das wäre ideal :P
Internetagentur | Artikel schreiben | Artikelverzeichnis-Script kaufen | Dein Dach noch fit?
Nichts ist wertvoller auf der Welt, als eine Idee, deren Zeit gekommen ist. Victor Hugo

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 12.03.2005, 13:49

Danke für all die Antworten!
overflood hat geschrieben:man muss sich ja nicht schlecht machen, man kann die bots doch per htaccess aussperren, das wäre wohl die sinnvollste variante, not?
D.h. per htaccess checken, ob UserAgent ein Bot ist und dann auf eine leere Seiten rewriten?

Pagemaker
PostRank 9
PostRank 9
Beiträge: 1092
Registriert: 02.12.2003, 03:05
Wohnort: Freistaat Bayern

Beitrag von Pagemaker » 13.03.2005, 02:31

.
@- mcchaos:

Mcchaos,

ich habe es zwar noch nicht ausprobiert, weil ich noch nicht den Fall hatte, eine Page im Netz zu haben, die keine Suchmaschine aufnehmen soll, aber ich glaube an folgende Lösung:

Du machst keine INDEX-Seite, sondern so:

www.domain.de/ixbelibigseitenname.html
Von dort aus linkst Du dann zu den Nebenseiten usw.

Das dürfte keine SUMA aufnehmen, weil die nur eine INDEX suchen, meine ich.
Nebenseiten werden ja von den SUMAS über die INDEX gesucht und gefunden, aber es gibt halt keine INDEX.

Natürlich solltest Du keine LINKs von Außen auf die "ixbelibigseitenname.html" und Nebenseiten setzen, denn dann könnte der Salat doch in SUMAS rutschen.

Ist es eh eine bestimmte Zuschauerzahl die es sehen sollen, kann man eine "ht.access" auf die Seite legen (im DOS anzufertigen) und mit einem einfachen Zugangscode versehen, z.B. "100" für obere und untere Eingabe.
Ich nehme einmal an, dahinter versteckst Du nicht die Baupläne für eine Atombombe.
Sollte aber Letzteres doch der Fall sein, muß der Zugangscode etwas komplizierter sein.

Gruß v. Andreas - "Pagemaker"
.

overflood
PostRank 5
PostRank 5
Beiträge: 266
Registriert: 02.03.2005, 16:44
Wohnort: Kassel

Beitrag von overflood » 13.03.2005, 02:51

hm er schrieb
Ein Problem ist halt, wenn man verlinkt wird (was man wohl nicht vermeiden kann), ist man vermutlich - trotz leerer Seiten - in Google unter dem Linktext zu finden.
kommt wohl nur htaccess in frage :-/
Internetagentur | Artikel schreiben | Artikelverzeichnis-Script kaufen | Dein Dach noch fit?
Nichts ist wertvoller auf der Welt, als eine Idee, deren Zeit gekommen ist. Victor Hugo

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 13.03.2005, 09:43

Nochmals danke für die Antworten!
overflood hat geschrieben:kommt wohl nur htaccess in frage :-/
Mit der htaccess kann man ja vieles machen: Was genau meinst Du? Man kann z.B. Bots auf ne leere Seite umleiten, man könnte aber auch immer eine 401 senden - und hoffen, dass die Bots die Seite dann nicht aufnehmen.

Ich glaube, das größte Problem ist die berühmte Suche nach "miserable failure": Obwohl der Begriff im Text der Seite auf Platz 1 nicht vorkommt, wird er - durch die Links - von Google gefunden. Ich werde wohl nicht verhindern können, dass jemand früher oder später auf die Seite verlinkt. Das mit der ixbelibigseitenname.html ist daher ne gute Idee, um die Links zumindest etwas zu verzögern 8)

Eine sichtbare Passwortabfrage (auch eine einfache) ist leider nicht gewünscht (muß ich evtl. nochmal bereden :wink:). Kann man die evtl. irgendwie per Javascript automatisieren oder so?! Dann wird aber vemutlich zumindest die 1. Seite mit dem Script durch die Links indiziert...

depp ich
PostRank 9
PostRank 9
Beiträge: 1508
Registriert: 06.12.2004, 12:59

Beitrag von depp ich » 13.03.2005, 11:54

Hallo!
Da stellt sich mal die Frage: Dürfen die Seiten vom Bot nicht gefunden werden oder sollen sie nur in den SERPs nicht auftauchen? Und: wer kontrolliert das?
lg
chio

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 13.03.2005, 11:59

Möglicherweise eine Bot-Trap, damit unfreundliche SuMas automatisch per IP gesperrt werden.

mcchaos
PostRank 9
PostRank 9
Beiträge: 1414
Registriert: 27.07.2004, 19:18

Beitrag von mcchaos » 13.03.2005, 20:58

depp ich hat geschrieben:Hallo!
Da stellt sich mal die Frage: Dürfen die Seiten vom Bot nicht gefunden werden oder sollen sie nur in den SERPs nicht auftauchen? Und: wer kontrolliert das?
Es geht darum, dass *möglichst* nur Leute auf die Seiten kommen, die die URL genau kennen. Das ist natürlich kein 100%iger Schutz, soll auch keiner sein, dafür braucht man eben Passwörter 8)
SloMo hat geschrieben: Möglicherweise eine Bot-Trap, damit unfreundliche SuMas automatisch per IP gesperrt werden.
Ok, nur was soll "gesperrt" heißen? Leere Seite anzeigen? 401 schicken? Gar nichts schicken (geht das)?
Wie schon gesagt, wäre es dann ja selbst mit einer komplett leeren Seite möglich, das sie über Links Keywords erhält und so gefunden wird.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag