Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Frage bzgl Cloaking hinsichtlich einer speziellen Website

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
Johnny990
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 10.03.2011, 10:42

Beitrag von Johnny990 » 10.03.2011, 10:54

Hallo liebes Forum,

bin neu hier im Forum und habe gleich einmal eine Frage, die mir doch sehr wichtig erscheint. Es geht um das Thema Cloaking.

Habe vor eine Domain zu kaufen von folgendem Anbieter: www. domainprofi.de
(Nebenbei: Kennt den jemand? Wenn ja, ist er seriös????)

Die eigentliche Frage:
nehmen wir uns mal eine Seite von obigen Anbieter raus, zB "www.haus-hund.de" und machen bei https://www.linkvendor.com/seo-tools/cl ... ector.html einen Cloaking check.

Das Ergebnis bei sämtlichen Seiten des obigen Anbieters:
Für die Suchmaschine: SEITE WURDE NICHT GEFUNDEN
Für User Agent (also mich als User): DIE NORMALE SEITE WIRD DARGESTELLT

Ist so etwas üblich, dass Domainhändler Ihre Seiten für Robots sperren und stattdessen eine 404 Seite Anzeigen. Wie gesagt, der obige Händler macht dies scheinbar für all seine Domains.
ODER und viel schlimmer: Hat so etwas negative Einflüsse (bzgl SEO etc.) und fällt dies tatsächlich schon unter Cloaking???

Wäre euch um eure Hilfe sehr dankbar, da ich nicht bei meinem ersten Domainkauf gleich auf die Schnauze fallen möchte. :)

P.S: Da kommt mir noch ne Frage:
Kann es sein, dass Bing keine geparkten Domains indexiert??? Hab bei mehreren geparkten Domains von unterschiedlichen Anbietern eine URL Submission durchgeführt (vor ca. 2 Wochen). Die Domains sind bis heute nicht indexiert. Bei Google jedoch schon

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

profo
PostRank 9
PostRank 9
Beiträge: 1703
Registriert: 18.01.2007, 18:51

Beitrag von profo » 10.03.2011, 12:16

Ich möchte nichts zur von Dir genannten Firma sagen, nur ganz allgemein:

Wenn eine Domain bei Google nicht indiziert ist ("site:domain"), ist das für eine bereits existierende Domain ein sehr schlechtes Zeichen.

Wenn die Domain Cloaking betreibt (Google sieht andere Seiten als die User), ist das ein extrem schlechtes Zeichen.

Wenn die Domain dann zusätzlich beim Site-Explorer von yahoo ("site:domain" -> backlinks) viele verdächtige Links hat (z.B. Links aus russischen Community-Profilen auf eine deutsche Website), dann ist der Verdacht verdammt hoch, dass die Site bei Google verbrannt ist. Es gibt Aussagen von Google, nach denen es sehr viel schwieriger ist, so eine Domain als eine komplett neue Domain zum Ranken zu bekommen.

(Es soll übrigens auch Domainhändler geben, die die Startseite ihrer Domains mit einem Parking-und-Verkaufs-Partnerprogramm bewerben, auf versteckten Unterseiten dieser Domains aber bis zum Verkauf der Domain Werbung für Poker / Porno und Potenzpillen schalten. Solche Domains sind dann erst recht für alle weiteren Zwecke ziemlich verbrannt)

infinity
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 08.06.2010, 11:57

Beitrag von infinity » 10.03.2011, 12:36

Hi,

ich konnte die angegebene Beispiel-Site mit dem User-Agent des Googlebots problemlos spidern. Ich habe keine Ahnung, warum das Tool einen Fehler bekommt. In den HTTP-Headern ist auch eine andere Apache-Version angegeben als auf der Fehlerseite, die im Tool gezeigt wird.

Zumindest habe ich keinen Unterschied im Quelltext gesehen, Browser und Googlebot bekommen dieselbe Seite. Ein Cloaking über den User-Agent würde ich ausschließen.

Allerdings befindet sich auf der Startseite ein größerer Textblock mit unsichtbarem Text, der nach Scraper-Spam aussieht und anscheinend bei jedem Aufruf der Seite neu generiert wird. Dieser Text ist auch auf der Cache-Seite von Google zu sehen. Unsichtbare Texte sollte man vermeiden, das ist wirklich Schnee von gestern.

Daß die Seite im Google-Cache bis auf den wechselnden Textinhalt dieselbe ist wie die Seite im Browser, spricht eher dafür, daß hier kein Cloaking stattfindet - im Cache würde man sonst zusätzliche Sachen sehen.