Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

SPAM Verdacht

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Andreas I.
PostRank 9
PostRank 9
Beiträge: 1464
Registriert: 18.03.2006, 14:36
Wohnort: Hamburg

Beitrag von Andreas I. » 15.05.2008, 20:24

@wollbay: Ja, das ist so. WENN man die robots.txt beachtet, kann man den Trick technisch nicht entdecken.

Man könnte jetzt anfangen zu mutmaßen und philosophieren, ob die robots.txt auch für einen automatisierten Browser gelten soll. Man rendert die Seite also einmal mit dem originalen, dazugehörigen CSS und einmal mit einem angepassten CSS, das aus dem Original-CSS generiert wird, indem man die Farbinfo weglässt. So kann man technisch erkennen, ob da mal Text lesbar ist und mal nicht.
Aber da so ein automatisierter Browser ja wohl Bestandteil eines erweiterten Suchmaschinenrobots ist, verletzt man die robots.txt
Dafür kommt man aber nicht ins Gefängnis...

@DeMarcus:
Wäre ich Google, würde ich bei bestimmten Verdachtsmomenten (etwa: CSS per robots.txt gesperrt...) die Kandidaten einer genaueren Prüfung unterziehen. Leere, farblich mit dem Hintergrund identische Bilder würde ich erkennen, indem ich einmal die Seite mit den Originalgrafiken rendere und einmal mit Platzhaltergrafiken, die die gleiche Größe wie die Originalgrafiken haben, aber ansonsten 100% transparent sind. Gibt es Stellen, an denen eine Grafik ist und das Originalrendering mit meinem modifizierten Rendering übereinstimmt, so liegt ein Fall von versteckten Grafiken vor. Wenn die jetzt auch noch ein Link sind...

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

new_newbie
PostRank 6
PostRank 6
Beiträge: 413
Registriert: 17.03.2006, 18:48
Wohnort: Weit weg

Beitrag von new_newbie » 16.05.2008, 02:01

Es ist nicht unbedingt der google-spider, der die versteckten links bemerkt. Eher sind es (konkurierende) Webmaster aus dem Umfeld, die die Webseiten vom Wettbewerber bei Einsatz von diesen Methoden bei google als spam melden. Erst dann kommt der Stein ins Rollen und ein Rater schaut sich deine Seite genauer an. Was dann passiert bleibt wohl nur Spekulation: Ausschluss aus dem Index, PR-Minderung bzw. Verlust, Verschlechtertes Ranking....

Runaway
PostRank 5
PostRank 5
Beiträge: 278
Registriert: 25.04.2005, 00:27
Wohnort: Deutschland

Beitrag von Runaway » 16.05.2008, 10:29

new_newbie hat geschrieben:Es ist nicht unbedingt der google-spider, der die versteckten links bemerkt. Eher sind es (konkurierende) Webmaster aus dem Umfeld, die die Webseiten vom Wettbewerber bei Einsatz von diesen Methoden bei google als spam melden. Erst dann kommt der Stein ins Rollen und ein Rater schaut sich deine Seite genauer an. Was dann passiert bleibt wohl nur Spekulation: Ausschluss aus dem Index, PR-Minderung bzw. Verlust, Verschlechtertes Ranking....
So sehe ich das auch.
Man kann natürlich viel veranstalten, muss aber dann mit dem Risiko, dass es (vielleicht irgendwann) nach hinten los geht, leben. Ist halt ein Abwägen.

Auch wenn der moralische Aspekt in der Diskussion hier ja explizit ausgeschlossen sein soll: Der Kunde hat von der Aktion keinerlei Vorteil, nur evtl. ein Risiko. Wenn man Kunden immer das Bestmögliche verkaufen will, dann macht man so etwas nicht.

Generell verstehe ich das Vorhaben mit der Linkliste auch nicht so ganz. Wenn ein Portfolio von 200 Domains zur Verfügung steht, kann man das doch viel effektiver nutzen. Und es sollte im Großen und Ganzen auch möglich sein, Zielseiten zu gestalten, bei denen die Kunden keine Probleme haben die ganz normal zu verlinken.

Das bringt deinen Projekten viel mehr und weder Du noch der Kunde geht irgendein Risiko ein.