Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Versteckter Content - Welcher Fehlermeldung für Google?

Mehrere Domains, Domain-Umzug, neue Dateinamen, 301/302
Neues Thema Antworten
monezmo
PostRank 4
PostRank 4
Beiträge: 160
Registriert: 16.08.2010, 20:30

Beitrag von monezmo » 09.12.2010, 19:53

Ich habe bei einem Projekt Inhalt der vor Google versteckt werden muss. Das ist bereits per .htaccess und robots.txt geschehen.

Ich frage mich nur welche HTML Fehlermeldung ich Google am besten präsentieren soll wenn ich die Suchmaschine aus dem Verzeichnis aussperre.

Schließlich verlinken viele Links von den öffentlichen Seiten zu den versteckten Artikeln. Ich möchte nicht das Google wegen 404s die öffentliche Seite abstraft.

Kann mir da jemand einen Tipp geben welche Fehlermeldung ich für Suchmaschinenbots per .htaccess ausgeben soll um nicht das Ranking zu gefährden?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 09.12.2010, 20:21

...als nächstes kommt dann:
- Steuer hinterziehen - wie mache ich es richtig ?
- Banküberfall - wie mache ich es richtig ?
- (hier selbst gewünschte Misstätigkeit )eintragen - wie mache ich es richtig ?

Heißer Tipp:
Wenn du es nicht kannst: Lass es !

monezmo
PostRank 4
PostRank 4
Beiträge: 160
Registriert: 16.08.2010, 20:30

Beitrag von monezmo » 09.12.2010, 20:59

Wenn du derartiges mit kriminellen Handlungen auf eine Stufe hebst würde ich mir Gedanken machen ob Suchmaschinen nicht einen zu hohen Stellenwert in deinem Kopf haben...

Die Vergleiche sind einfach nur lächerlich!

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 09.12.2010, 21:08

Die Vergleiche sind einfach nur lächerlich!
...ich nenne sie einfach übertrieben.

guppy
PostRank 9
PostRank 9
Beiträge: 2820
Registriert: 08.12.2003, 15:57
Wohnort: schwedt

Beitrag von guppy » 10.12.2010, 10:25

Pompom wo ist das Problem, er will, wenn ich das richtig verstehe, dass google ein Teil seiner eigenen Seiten nicht spidert ?

@monzemo ich würde per nofollow in eine Verzeichnis verlinken, dass per robots.txt gesperrt ist, dort eine Weiterleitung zu oder iframe von einer anderen domain mit den "geheimen" Inhalten einrichten. Die Seite selber auf noindex setzen.
Klar musst Du Dir aber darüber sein, dass die ganzen Pseudosumas sich nicht an diese Anweisungen halten und derr Inhalt letztlich doch in irgend einem Index auftaucht.

monezmo
PostRank 4
PostRank 4
Beiträge: 160
Registriert: 16.08.2010, 20:30

Beitrag von monezmo » 10.12.2010, 11:28

Danke guppy, du hast mich richtig verstanden :)

Deine Methode klingt nicht verkehrt, aber wäre es nicht einfacher die Bots serverseitig auszusperren (.htaccess?)

Gruß
Mone

guppy
PostRank 9
PostRank 9
Beiträge: 2820
Registriert: 08.12.2003, 15:57
Wohnort: schwedt

Beitrag von guppy » 10.12.2010, 12:24

Vom Prinzip her schon, doch Du brauchst dann meines Wissens alle ip`s -auch die in Zukunft verwendet werden.

monezmo
PostRank 4
PostRank 4
Beiträge: 160
Registriert: 16.08.2010, 20:30

Beitrag von monezmo » 11.12.2010, 22:20

Das geht auch per .htaccess über einen User Agent Filter.
So habe ich es jetzt zumindest gelöst.


Deswegen auch meine Frage welche HTTP Error Message am besten ausgegeben werden soll ohne das Google die Seite abstraft.


Gibt ja etliche und ich kenn mich damit nicht aus:
3xx - Umleitungscodes
Wird ein solcher Statuscode gesendet, muss der Client eine weitere Aktion vornehmen, bevor er eine Datei empfangen kann.

300 Multiple Choices
301 Moved Permanently
302 Moved Temporarily
303 See Other
304 Not Modified
305 Use Proxy

4xx - Client-Fehlercodes
400 Bad Request
401 Unauthorized
402 Payment Required
403 Forbidden
404 Not Found
405 Method Not Allowed
406 Not Acceptable
407 Proxy Authentication Required
408 Request Time-Out
409 Conflict
410 Gone
411 Length Required
412 Precondition Failed
413 Request Entity Too Large
414 Request-URL Too Large
415 Unsupported Media Type

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 13.12.2010, 16:07

irgendeine 4xx oder 5xx
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

dev.
PostRank 4
PostRank 4
Beiträge: 129
Registriert: 18.10.2007, 10:56

Beitrag von dev. » 14.12.2010, 12:02

Mich würde der Code interessieren, wie du einen Ordner disallowest und dann zusätzlich einen Statuscode übermittelst.

Würdest du ihn teilen? :-)

picxl
PostRank 2
PostRank 2
Beiträge: 48
Registriert: 17.08.2009, 10:25
Wohnort: Köthen

Beitrag von picxl » 18.01.2011, 18:49

In etwa so sollte dies funktionieren. Jetzt frag mich aber bitte nicht nach einer Liste von UserAgents (Googlesuche "alle useragents"). Die wird sicher ewig lang werden, falls du alle Suchbots ausschließen möchtest und dann ist noch nicht mal geklärt, ob sich ein UserAgent auch ordentlich als solcher meldet. Das Wörtchen "Mozilla" macht sich ins Bots ja immer echt gut...

Code: Alles auswählen

RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} ^Yahoo* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Google* [NC]
RewriteRule .* - [F,L]
Das wäre in diesem Beispiel ein 404-Error. Kannst dort aber praktisch irgendwas aus dem 400er Bereich wählen, in deinem Fall passt vielleicht der 401 ganz gut.

Code: Alles auswählen

RewriteRule .* - [R=401,L]
Besucher oder was auch immer, die nicht in den Conditions stehen, werden nicht von der Rewrite Rule betroffen sein.
Mit 140 Zeichen unter twitter.com/picxl erreichbar.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag