Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

SPAM Verdacht

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Andreas I.
PostRank 9
PostRank 9
Beiträge: 1464
Registriert: 18.03.2006, 14:36
Wohnort: Hamburg

Beitrag von Andreas I. » 15.05.2008, 20:24

@wollbay: Ja, das ist so. WENN man die robots.txt beachtet, kann man den Trick technisch nicht entdecken.

Man könnte jetzt anfangen zu mutmaßen und philosophieren, ob die robots.txt auch für einen automatisierten Browser gelten soll. Man rendert die Seite also einmal mit dem originalen, dazugehörigen CSS und einmal mit einem angepassten CSS, das aus dem Original-CSS generiert wird, indem man die Farbinfo weglässt. So kann man technisch erkennen, ob da mal Text lesbar ist und mal nicht.
Aber da so ein automatisierter Browser ja wohl Bestandteil eines erweiterten Suchmaschinenrobots ist, verletzt man die robots.txt
Dafür kommt man aber nicht ins Gefängnis...

@DeMarcus:
Wäre ich Google, würde ich bei bestimmten Verdachtsmomenten (etwa: CSS per robots.txt gesperrt...) die Kandidaten einer genaueren Prüfung unterziehen. Leere, farblich mit dem Hintergrund identische Bilder würde ich erkennen, indem ich einmal die Seite mit den Originalgrafiken rendere und einmal mit Platzhaltergrafiken, die die gleiche Größe wie die Originalgrafiken haben, aber ansonsten 100% transparent sind. Gibt es Stellen, an denen eine Grafik ist und das Originalrendering mit meinem modifizierten Rendering übereinstimmt, so liegt ein Fall von versteckten Grafiken vor. Wenn die jetzt auch noch ein Link sind...

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

new_newbie
PostRank 6
PostRank 6
Beiträge: 413
Registriert: 17.03.2006, 18:48
Wohnort: Weit weg

Beitrag von new_newbie » 16.05.2008, 02:01

Es ist nicht unbedingt der google-spider, der die versteckten links bemerkt. Eher sind es (konkurierende) Webmaster aus dem Umfeld, die die Webseiten vom Wettbewerber bei Einsatz von diesen Methoden bei google als spam melden. Erst dann kommt der Stein ins Rollen und ein Rater schaut sich deine Seite genauer an. Was dann passiert bleibt wohl nur Spekulation: Ausschluss aus dem Index, PR-Minderung bzw. Verlust, Verschlechtertes Ranking....

Runaway
PostRank 5
PostRank 5
Beiträge: 278
Registriert: 25.04.2005, 00:27
Wohnort: Deutschland

Beitrag von Runaway » 16.05.2008, 10:29

new_newbie hat geschrieben:Es ist nicht unbedingt der google-spider, der die versteckten links bemerkt. Eher sind es (konkurierende) Webmaster aus dem Umfeld, die die Webseiten vom Wettbewerber bei Einsatz von diesen Methoden bei google als spam melden. Erst dann kommt der Stein ins Rollen und ein Rater schaut sich deine Seite genauer an. Was dann passiert bleibt wohl nur Spekulation: Ausschluss aus dem Index, PR-Minderung bzw. Verlust, Verschlechtertes Ranking....
So sehe ich das auch.
Man kann natürlich viel veranstalten, muss aber dann mit dem Risiko, dass es (vielleicht irgendwann) nach hinten los geht, leben. Ist halt ein Abwägen.

Auch wenn der moralische Aspekt in der Diskussion hier ja explizit ausgeschlossen sein soll: Der Kunde hat von der Aktion keinerlei Vorteil, nur evtl. ein Risiko. Wenn man Kunden immer das Bestmögliche verkaufen will, dann macht man so etwas nicht.

Generell verstehe ich das Vorhaben mit der Linkliste auch nicht so ganz. Wenn ein Portfolio von 200 Domains zur Verfügung steht, kann man das doch viel effektiver nutzen. Und es sollte im Großen und Ganzen auch möglich sein, Zielseiten zu gestalten, bei denen die Kunden keine Probleme haben die ganz normal zu verlinken.

Das bringt deinen Projekten viel mehr und weder Du noch der Kunde geht irgendein Risiko ein.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


DeMarcus
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.03.2008, 18:30

Beitrag von DeMarcus » 16.05.2008, 15:03

Runaway hat geschrieben: Generell verstehe ich das Vorhaben mit der Linkliste auch nicht so ganz. Wenn ein Portfolio von 200 Domains zur Verfügung steht, kann man das doch viel effektiver nutzen. Und es sollte im Großen und Ganzen auch möglich sein, Zielseiten zu gestalten, bei denen die Kunden keine Probleme haben die ganz normal zu verlinken.

Das bringt deinen Projekten viel mehr und weder Du noch der Kunde geht irgendein Risiko ein.
Hallo, danke. Die Aktion ist mangels Alternativen mein Versuch eben das Potential zu nutzen. Ich würde gerne (auch gegen eine Bezahlung) eine Beratung annehmen, wie man hier eine sinnvollere Lösung gehen kann um den Kunden zu helfen.

ALSO: WER auch immer sich dazu berufen fühlt, bitte um eine Info. Mir fehlt hier noch das Fachwissen und die Erfahrung.

np
PostRank 6
PostRank 6
Beiträge: 415
Registriert: 16.08.2006, 15:57

Beitrag von np » 18.05.2008, 15:22

Diese Tricks mit versteckten Links sind Spam auf niedrigstem Niveau - noch dazu auf Kundendomains :o Unglaublich.

Mir ist schleierhaft wie man überhaupt auf die Idee kommt, dass bei Kundendomains "einfach mal auszuprobieren". Genau aus diesem Grund hat die SEO-Branche nicht den besten Ruf.

Ohne Fachwissen und Erfahrung sollte man nicht SEO machen bzw. anbieten und schon gar nicht mit Kundendomains spielen

Anonymous

Beitrag von Anonymous » 18.05.2008, 15:31

np hat geschrieben:Mir ist schleierhaft wie man überhaupt auf die Idee kommt, dass bei Kundendomains "einfach mal auszuprobieren".
Naja... er wollte aber doch zumindest vorher von uns wissen ob das ein Risiko ist bevor er das dann wirklich macht.... und genau dazu ist dies Forum ja auch da... klar die meisten hier wissen, das es ein großes Risiko für die Kundendomains ist, und er nu auch... im Grunde ist doch nix schlimmes dabei wenn man sich Gedanken macht wie man brachliegendes Potential risikolos nutzen kann und die Ideen dann mit Fachleuten mal durchdiskutiert...

genfai
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 28.04.2008, 18:42

Beitrag von genfai » 18.05.2008, 15:54

Auch auf die Gefahr, dass das als sehr dumme Frage gilt:

Ab wann versteht sich ein Link als versteckt?

- wenn er von einem normalen User ohne zusätzliche Maßnahmen nicht entdeckt werden kann (markieren, Quellcode ansehen, ...)

oder bereits

- wenn er von normalen Usern aufgrund seiner Platzierung und Größe wahrscheinlich nicht wahrgenommen wird

Ich platziere z.B. seit Jahren auf von mir erstellten Seiten einen kleinen Link mit dem Namen meines Gewerbes. Der Link ist im Prinzip in keiner Form versteckt und bei gezieltem Interesse durchaus auffindbar.

In erster Linie handelt es sich dabei natürlich um mein persönliches Geltungsbedürfnis. :oops: Stellt das bereits eine Gefahr für die Kundendomains dar? Wenn ja, dann fliegen die (Links) nämlich alle noch heute raus....


keats

Seokratie
PostRank 8
PostRank 8
Beiträge: 805
Registriert: 03.10.2007, 12:32

Beitrag von Seokratie » 18.05.2008, 16:09

genfai hat geschrieben:Ab wann versteht sich ein Link als versteckt?
Wenn er nicht zu sehen ist. Wenn er unauffällig platziert ist, ist es ja etwas anderes! Ein 1x1 Pixel ist versteckt. Ein 100x20 Mini-Banner ist unauffällig.
Zu den versteckten Links auf Kundenseiten: Lass es sein. Entweder der Link ist deutlich sichtbar oder er ist versteckt. Versteckte Links werden abgestraft. Die Seiten können komplett aus dem Index fliegen. Mit Kundenseiten geht man so nicht um. Auch wenn sie es erlauben.

goedy
PostRank 3
PostRank 3
Beiträge: 73
Registriert: 13.04.2007, 16:08
Wohnort: Köln

Beitrag von goedy » 19.05.2008, 15:24

genfai hat geschrieben:Auch auf die Gefahr, dass das als sehr dumme Frage gilt:

Ab wann versteht sich ein Link als versteckt?
https://www.google.com/support/webmaste ... swer=66353

genfai
PostRank 1
PostRank 1
Beiträge: 8
Registriert: 28.04.2008, 18:42

Beitrag von genfai » 19.05.2008, 16:39

Mhhh, ja, danke, das habe ich gelesen. Allerdings ist es ja durchaus so geschrieben, dass ein nicht unerheblicher Interpretationsspielraum bleibt.
When evaluating your site to see if it includes hidden text or links, look for anything that's not easily viewable by visitors of your site.
"Not easy", das kann im Zweifelsfall wohl alles bedeuten. Aber ich werde es einfach mal damit halten, dass "Hidden" halt Farbe auf Farbe oder 1px Bilder/Schrift bzw. konkretere Techniken zum Verschleiern sind.


keats

dadawowo
PostRank 8
PostRank 8
Beiträge: 784
Registriert: 17.12.2007, 10:55

Beitrag von dadawowo » 19.05.2008, 20:12

Heutzutage sind Links nicht wirklich schwierig zu beschaffen, da muss ich sagen
das ich Eure komplette Diskussion nicht nachvollziehen kann.

Alles was ihr schreibt ist Technik von vor mind. 5 Jahren und funktioniert heute kaum
noch.

Margin
PostRank 10
PostRank 10
Beiträge: 4646
Registriert: 09.09.2005, 08:25

Beitrag von Margin » 20.05.2008, 07:49

Moin moin,

wie oben schon beschrieben, sind es in der Regel die argwöhnischen Mitbewerber, die so etwas entdecken und melden und ein einziger reicht da aus, um sämtliche Kundenseiten zu gefährden.

Und ja, es ist kein Gerücht! Die Seiten, die mir persönlich bekannt sind, flogen parallel zu einer erläuternden Meckermail eines QR (sie werden ausgesperrt, weil ... wenn Sie diesen Verstoß beheben, können sie einen Antrag auf Reindexierung stellen ...) postwendend aus dem Index - komplett! In einem mir bekannten Fall handelte es sich sogar "nur" um Text, der nach einem halben Leerscreen sichtbar unter der Seite stand, man brauchte nur ein Stückchen scrollen.
Und Google, na ja, ich denke die werden das merken.
Wenn ich einen Googelbot programmieren müsste, würden mir href-tags die mit CSS-Klassenzuweisungen versehen werden, welche aber per robots.txt ausgesperrt wurden, als auffällig erscheinen.
Absolut unhaltbar ... nach dieser These wären originäre Bestimmungen sowohl der CSS als auch der robots.txt im Eimer und alle meine (blitzsauberen) Seiten gefährdet morgen zu fliegen.

Und nun mal zu dem eigentlichen Problem:
Es gibt 100e Möglichkeiten, ganz legel und dennoch diskret Links auf Kundenseiten (Einverständnis vorausgesetzt) unterzubringen, ohne dass Google auch nur den geringsten Anstoss daran nimmt! Einfach mal ein bissel die kreative Hirnhälfte einschalten ... ;-)


Gruß Margin

xoni
PostRank 8
PostRank 8
Beiträge: 692
Registriert: 22.08.2007, 12:14

Beitrag von xoni » 20.05.2008, 08:12

Margin hat geschrieben: Absolut unhaltbar ... nach dieser These wären originäre Bestimmungen sowohl der CSS als auch der robots.txt im Eimer und alle meine (blitzsauberen) Seiten gefährdet morgen zu fliegen.
Was sind denn originäre (ursprüngliche) Bestimmungen von CSS-Dateien?

nerd
PostRank 10
PostRank 10
Beiträge: 4023
Registriert: 15.02.2005, 04:02

Beitrag von nerd » 21.05.2008, 03:06

DeMarcus hat geschrieben:Ja, ich mach das auch... Aber wenn der Linktext "links" heißt und in der CSS Schriftgröße = 1px und BG Colo= background hat, dann kann ein STRG + A auch nicht viel anzeigen.
Ich habs auch probiert und würde den Link nur sehen, wenn ich weiß wo er ist.
manche leute haben vorstellungen hier - so als ob bei google nur ne handvoll dahergelelaufene 15-jaehriger hobby-programmierer arbeiten.
glaubt ihr die leute die sich seiten anschauen sind mit'm ie unterwegs? es ist ziehmlich simplel die unterschiede zwischen dem, was im webbrowser angezeigt wird und was im sourcecode steht automatisch zu erkennen und auszuwerten. ist ja auch nicht so das du der erste mit der "links per css verstecken" idee waerest.

marc75
PostRank 9
PostRank 9
Beiträge: 1916
Registriert: 06.10.2004, 09:36

Beitrag von marc75 » 21.05.2008, 08:55

per robots.txt die externe css Datei sperren

wer sowas macht, zeigt ja gleich das er was zu verheimlichen hat. Denn .css Dateien gehören nicht in die robots.txt

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag