Seite 1 von 3

SPAM Verdacht

Verfasst: 15.05.2008, 19:24
von DeMarcus
Hallo zusammen,

1.) wo sieht man, ob eine Seite bei Google auf einer Art "Blacklist" steht? (bitte nicht als Antwort geben "wenn die Seite per site: ... nicht erreichbar ist).

2.) Ich muss von einer Kundenseite auf eine Linkliste verweisen (um diese in den Google Index zu führen), will aber keinen sichtbaren Link auf der Kundenseite haben.

Lösung: per robots.txt die externe css Datei sperren, hier eine Klasse für ein DIV anlegen und die Farbe des Links mit der bgcolor der Backgrounds gleichsetzten. Auf der Seite dann einfach <div id="klassenname"><link></div> einsetzen.

Ist hier jemandem bekannt, ob das Probleme verursacht, bzw. hat überhaupt schon mal wirklich erlebt, daß eine Seite wegen etwas ähnlichem vom Index verschwunden ist? (Bis jetzt ist das nach über 200 gut in den Suchmaschinen positionierten Kundenseiten irgendwie das "böse Märchen" für mich).

Dank und Gruß

Euer Marcus

Verfasst:
von

Verfasst: 15.05.2008, 19:29
von bennos
Das was du machen möchtest wird definitiv als SPAM betrachtet.

NIcht sichbare Links verstossen ganz klar gegen die Google Richlinien.

bennos

Re: SPAM Verdacht

Verfasst: 15.05.2008, 19:33
von xoni
DeMarcus hat geschrieben: Bis jetzt ist das nach über 200 gut in den Suchmaschinen positionierten Kundenseiten irgendwie das "böse Märchen" für mich).
Wenn Du auf über 200 Seiten keine Auswirkungen germerkt hast, dann mach doch einfach weiter wie bisher.

Ich jedenfalls würde die Hinweise die bei den GoogleWebmasterTools gegeben werden beachten.
Und das Google per robots.txt ausgesperrte CSS-Dateien nicht wirklich spidert, ist auch nicht sicher.

Gruß, wollbay

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 15.05.2008, 19:33
von DeMarcus
ja, danke. Das war weniger die Frage.

Die Frage ist, ob das bemerkt wird.

Ich will auf meinen Kundenseiten einfach einen Link auf diese Datei, welche dann auf meine eigenen Projektseiten verlinkt.
Die Kunden wollen diesen Link sicher nicht.

Aber das Potential von ca 200 gut gelisteten Domains will ich nicht ungenutzt lassen.

Re: SPAM Verdacht

Verfasst: 15.05.2008, 19:35
von DeMarcus
Wenn Du auf über 200 Seiten keine Auswirkungen germerkt hast, dann
mach doch einfach weiter wie bisher.
Nene... Das mit den Links ist neu. Die 200 Seiten sind ganz normal ohne Tricks nach oben gekommen. Deswegen ja noch mehr die Sorge, mit dem Verlinkungsplan die "guten Seiten" ins "OFF" zu ziehen.

Danke aber schon mal für die Info.

Verfasst: 15.05.2008, 19:37
von bennos
"Ich will auf meinen Kundenseiten einfach einen Link auf diese Datei, welche dann auf meine eigenen Projektseiten verlinkt.
Die Kunden wollen diesen Link sicher nicht.

Aber das Potential von ca 200 gut gelisteten Domains will ich nicht ungenutzt lassen."

DAS ist nicht dein ERNST!

Du willst deinen Kunden Links unterschieben!!!

Denke der Thread hat sich erledigt!

Verfasst: 15.05.2008, 19:48
von DeMarcus
bennos hat geschrieben: DAS ist nicht dein ERNST!

Du willst deinen Kunden Links unterschieben!!!

Denke der Thread hat sich erledigt!
Hey, das ist ein FORUM = Man kann die Sachen ja mal durchspielen ohne hier die große "ich muss den Ehrenretter von Moral und Sitte" Steinschleuder auszupacken.

Grundsätzlich ist das kein Problem.
Lass es halt 200 Seiten von mir sein bei welchen ich den Link einfach nicht sehen will. Die Moral dahinter habe ich nicht erfragt, sondern die technische Bedeutung bzw. Machbarkeit. Bitte die 2 Dinge trennen.

Verfasst: 15.05.2008, 19:58
von xoni
DeMarcus hat geschrieben: Die Frage ist, ob das bemerkt wird.
Von Google oder von Deinen Kunden?
Was machts Du eigentlich, wenn der Kunde auf seiner Seite einen Link entdeckt, den er - wie Du schreibst - sicher nicht haben möchte?

Und Google, na ja, ich denke die werden das merken.
Wenn ich einen Googelbot programmieren müsste, würden mir href-tags die mit CSS-Klassenzuweisungen versehen werden, welche aber per robots.txt ausgesperrt wurden, als auffällig erscheinen.

Meine persönliche Meinung, aber ohne Beweis: Ich würde es lassen.

Gruß, wollbay

Verfasst: 15.05.2008, 19:59
von Andreas I.
Das ist technisch nicht zu entdecken, wenn man die robots.txt beachten soll.

Ein Google Qualityrater würde das entdecken. (Sollte das entdecken können, wenn er nicht schon morgens um 9 Uhr besoffen zur Arbeit erscheint...) Die kommen per Browser.

Und nach der Entdeckung beschäftigt der sich dann eine Weile mit Deinem kompletten Domain-Portfolio.

Verfasst: 15.05.2008, 20:06
von DeMarcus
wollbay hat geschrieben: Von Google oder von Deinen Kunden?
Was machts Du eigentlich, wenn der Kunde auf seiner Seite einen Link entdeckt, den er - wie Du schreibst - sicher nicht haben möchte?
Danke für die Antwort.
Die Kunden haben damit übrigens kein Problem (ich habe von jedem das OK, aber eben mit der Bitte, daß der Link nicht zu sehen ist).

>würden mir href-tags die mit CSS-Klassenzuweisungen versehen werden
Ja, die Links sind ja normal, der Link liegt nur in einem DIV (und hier liegen bei zig Seiten die Links in einem DIV).

>ch würde es lassen.
:-) Ja, ich hab auch etwas Bammel, aber es gibt eben bis jetzt KEINEN, der mir von einem wirklichen Negativ Fall erzählen kann. Ich hab diverse Suchmaschinenoptimierer schon beauftragt, Bücher gelesen und Foren befragt.... Das Gespenst wird überall benannt, alle "haben Angst" aber ich habe manchmal das Gefühl, daß hier sowas wie Lotto, das Wetter oder was auch immer mehr dafür verantwortlich ist, was passiert.
Die Seiten welche ich über ein Jahr nicht anfasse fluktuieren in manchen Wochen um 25 Plätze, Seiten bei denen ich mit starken Methoden gestetet habe (nur h2Tags, Keywortdichte von über 10%) sind bei Goolge auf Platz 1,....

Ich würde da gerne mal WISSEN was Sache ist, nicht immer nur vermuten.

Verfasst: 15.05.2008, 20:08
von DeMarcus
Andreas I. hat geschrieben:Das ist technisch nicht zu entdecken, wenn man die robots.txt beachten soll.

Ein Google Qualityrater würde das entdecken. (Sollte das entdecken können, wenn er nicht schon morgens um 9 Uhr besoffen zur Arbeit erscheint...) Die kommen per Browser.

Und nach der Entdeckung beschäftigt der sich dann eine Weile mit Deinem kompletten Domain-Portfolio.
Danke für die gute Antwort.
Ich habe bei dem ganzen auf sehr viel geachtet. (Immer andere Titles, andere Wörter, andere Texte).

"Ein Google Qualityrater" der per Zufall auf die Kundenseite kommt und hier sonst keine Auffälligkeiten sieht...? Ist da ein Treffer im Lotto nicht wahrscheinlicher? Die Frage ist, ob Google die externe CSS überhaupt ausliest? Also ob man sich überhaupt die "Auffälligkeit" der Sperrung der CSS Datei leisten sollte.

Und wenn ich das lesen, dann machen mir die Quality Rater" auch nur mäßig Sorge. https://news.worldsites-schweiz.ch/was- ... -rater.htm

Verfasst: 15.05.2008, 20:15
von Andreas I.
Mit eine der ersten Aktionen, die so ein Qualityrater wohl macht, ist einmal auf strg-a zu drücken. (Alles markieren...) Das dauert nur einen Sekundenbruchteil und dabei werden solche versteckten Texte dann entdeckt.

Ich bin aber kein Qualityrater, das ist also nur eine Vermutung von mir. Aber wenn das so einfach zu entdecken ist, werden die das schon machen...

Verfasst: 15.05.2008, 20:16
von xoni
Andreas I. hat geschrieben:Das ist technisch nicht zu entdecken, wenn man die robots.txt beachten soll.
@ andreas

Ist das wirklich so? gibt es eine gesicherte Erkenntnis, das Google die Angaben zu 100% beachtet? Würde mich wirklich interessieren...

Gruß, wollbay

Verfasst: 15.05.2008, 20:18
von DeMarcus
Andreas I. hat geschrieben:Mit eine der ersten Aktionen, die so ein Qualityrater wohl macht, ist einmal auf strg-a zu drücken. (Alles markieren...) Das dauert nur einen Sekundenbruchteil und dabei werden solche versteckten Texte dann entdeckt.

Ich bin aber kein Qualityrater, das ist also nur eine Vermutung von mir. Aber wenn das so einfach zu entdecken ist, werden die das schon machen...
Ja, ich mach das auch... Aber wenn der Linktext "links" heißt und in der CSS Schriftgröße = 1px und BG Colo= background hat, dann kann ein STRG + A auch nicht viel anzeigen.
Ich habs auch probiert und würde den Link nur sehen, wenn ich weiß wo er ist.

Verfasst: 15.05.2008, 20:22
von DeMarcus
wollbay hat geschrieben:
Ist das wirklich so? gibt es eine gesicherte Erkenntnis, das Google die Angaben zu 100% beachtet? Würde mich wirklich interessieren...

Gruß, wollbay
DAS ist genau meine Frage.

Das ist eben auch eine grundsätzlichge Frage.
Denn eigentlich gibt es bei kaum einer Sache eine Gewissheit. Die großen Foren-Guros haben zwar immer tolle Hinweise, aber eigentlich kann es auch genau anders sein. Da es hunderte Faktoren für ein Webranking gibt, gleicht die Suche nach der Ursache einer Veränderung der Suche nach der brühmten Nadel im Heuhaufen.

Warum sollte google die robots.txt nicht auslesen?

Ich glaube, daß es ein Katz und Maus Spiel ist. Und die Katze hat bei der Vielzahl an Seiten viel zu tun. Automatisch kann man das alles nicht auslesen. Wenn der Link nun eine Grafik mit der Größe 1x1 px oder doch größer aber mit gleicher Farbe wie der Background ist?
Was passiert dann?
Da brauche ich noch nicht mal mehr CSS oder eine robots.txt.....