Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

SPAM Verdacht

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
DeMarcus
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.03.2008, 18:30

Beitrag von DeMarcus » 15.05.2008, 19:24

Hallo zusammen,

1.) wo sieht man, ob eine Seite bei Google auf einer Art "Blacklist" steht? (bitte nicht als Antwort geben "wenn die Seite per site: ... nicht erreichbar ist).

2.) Ich muss von einer Kundenseite auf eine Linkliste verweisen (um diese in den Google Index zu führen), will aber keinen sichtbaren Link auf der Kundenseite haben.

Lösung: per robots.txt die externe css Datei sperren, hier eine Klasse für ein DIV anlegen und die Farbe des Links mit der bgcolor der Backgrounds gleichsetzten. Auf der Seite dann einfach <div id="klassenname"><link></div> einsetzen.

Ist hier jemandem bekannt, ob das Probleme verursacht, bzw. hat überhaupt schon mal wirklich erlebt, daß eine Seite wegen etwas ähnlichem vom Index verschwunden ist? (Bis jetzt ist das nach über 200 gut in den Suchmaschinen positionierten Kundenseiten irgendwie das "böse Märchen" für mich).

Dank und Gruß

Euer Marcus

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

bennos
PostRank 9
PostRank 9
Beiträge: 1299
Registriert: 16.12.2005, 11:51

Beitrag von bennos » 15.05.2008, 19:29

Das was du machen möchtest wird definitiv als SPAM betrachtet.

NIcht sichbare Links verstossen ganz klar gegen die Google Richlinien.

bennos

xoni
PostRank 8
PostRank 8
Beiträge: 692
Registriert: 22.08.2007, 12:14

Beitrag von xoni » 15.05.2008, 19:33

DeMarcus hat geschrieben: Bis jetzt ist das nach über 200 gut in den Suchmaschinen positionierten Kundenseiten irgendwie das "böse Märchen" für mich).
Wenn Du auf über 200 Seiten keine Auswirkungen germerkt hast, dann mach doch einfach weiter wie bisher.

Ich jedenfalls würde die Hinweise die bei den GoogleWebmasterTools gegeben werden beachten.
Und das Google per robots.txt ausgesperrte CSS-Dateien nicht wirklich spidert, ist auch nicht sicher.

Gruß, wollbay

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


DeMarcus
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.03.2008, 18:30

Beitrag von DeMarcus » 15.05.2008, 19:33

ja, danke. Das war weniger die Frage.

Die Frage ist, ob das bemerkt wird.

Ich will auf meinen Kundenseiten einfach einen Link auf diese Datei, welche dann auf meine eigenen Projektseiten verlinkt.
Die Kunden wollen diesen Link sicher nicht.

Aber das Potential von ca 200 gut gelisteten Domains will ich nicht ungenutzt lassen.

DeMarcus
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.03.2008, 18:30

Beitrag von DeMarcus » 15.05.2008, 19:35

Wenn Du auf über 200 Seiten keine Auswirkungen germerkt hast, dann
mach doch einfach weiter wie bisher.
Nene... Das mit den Links ist neu. Die 200 Seiten sind ganz normal ohne Tricks nach oben gekommen. Deswegen ja noch mehr die Sorge, mit dem Verlinkungsplan die "guten Seiten" ins "OFF" zu ziehen.

Danke aber schon mal für die Info.

bennos
PostRank 9
PostRank 9
Beiträge: 1299
Registriert: 16.12.2005, 11:51

Beitrag von bennos » 15.05.2008, 19:37

"Ich will auf meinen Kundenseiten einfach einen Link auf diese Datei, welche dann auf meine eigenen Projektseiten verlinkt.
Die Kunden wollen diesen Link sicher nicht.

Aber das Potential von ca 200 gut gelisteten Domains will ich nicht ungenutzt lassen."

DAS ist nicht dein ERNST!

Du willst deinen Kunden Links unterschieben!!!

Denke der Thread hat sich erledigt!

DeMarcus
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.03.2008, 18:30

Beitrag von DeMarcus » 15.05.2008, 19:48

bennos hat geschrieben: DAS ist nicht dein ERNST!

Du willst deinen Kunden Links unterschieben!!!

Denke der Thread hat sich erledigt!
Hey, das ist ein FORUM = Man kann die Sachen ja mal durchspielen ohne hier die große "ich muss den Ehrenretter von Moral und Sitte" Steinschleuder auszupacken.

Grundsätzlich ist das kein Problem.
Lass es halt 200 Seiten von mir sein bei welchen ich den Link einfach nicht sehen will. Die Moral dahinter habe ich nicht erfragt, sondern die technische Bedeutung bzw. Machbarkeit. Bitte die 2 Dinge trennen.

xoni
PostRank 8
PostRank 8
Beiträge: 692
Registriert: 22.08.2007, 12:14

Beitrag von xoni » 15.05.2008, 19:58

DeMarcus hat geschrieben: Die Frage ist, ob das bemerkt wird.
Von Google oder von Deinen Kunden?
Was machts Du eigentlich, wenn der Kunde auf seiner Seite einen Link entdeckt, den er - wie Du schreibst - sicher nicht haben möchte?

Und Google, na ja, ich denke die werden das merken.
Wenn ich einen Googelbot programmieren müsste, würden mir href-tags die mit CSS-Klassenzuweisungen versehen werden, welche aber per robots.txt ausgesperrt wurden, als auffällig erscheinen.

Meine persönliche Meinung, aber ohne Beweis: Ich würde es lassen.

Gruß, wollbay

Andreas I.
PostRank 9
PostRank 9
Beiträge: 1464
Registriert: 18.03.2006, 14:36
Wohnort: Hamburg

Beitrag von Andreas I. » 15.05.2008, 19:59

Das ist technisch nicht zu entdecken, wenn man die robots.txt beachten soll.

Ein Google Qualityrater würde das entdecken. (Sollte das entdecken können, wenn er nicht schon morgens um 9 Uhr besoffen zur Arbeit erscheint...) Die kommen per Browser.

Und nach der Entdeckung beschäftigt der sich dann eine Weile mit Deinem kompletten Domain-Portfolio.

DeMarcus
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.03.2008, 18:30

Beitrag von DeMarcus » 15.05.2008, 20:06

wollbay hat geschrieben: Von Google oder von Deinen Kunden?
Was machts Du eigentlich, wenn der Kunde auf seiner Seite einen Link entdeckt, den er - wie Du schreibst - sicher nicht haben möchte?
Danke für die Antwort.
Die Kunden haben damit übrigens kein Problem (ich habe von jedem das OK, aber eben mit der Bitte, daß der Link nicht zu sehen ist).

>würden mir href-tags die mit CSS-Klassenzuweisungen versehen werden
Ja, die Links sind ja normal, der Link liegt nur in einem DIV (und hier liegen bei zig Seiten die Links in einem DIV).

>ch würde es lassen.
:-) Ja, ich hab auch etwas Bammel, aber es gibt eben bis jetzt KEINEN, der mir von einem wirklichen Negativ Fall erzählen kann. Ich hab diverse Suchmaschinenoptimierer schon beauftragt, Bücher gelesen und Foren befragt.... Das Gespenst wird überall benannt, alle "haben Angst" aber ich habe manchmal das Gefühl, daß hier sowas wie Lotto, das Wetter oder was auch immer mehr dafür verantwortlich ist, was passiert.
Die Seiten welche ich über ein Jahr nicht anfasse fluktuieren in manchen Wochen um 25 Plätze, Seiten bei denen ich mit starken Methoden gestetet habe (nur h2Tags, Keywortdichte von über 10%) sind bei Goolge auf Platz 1,....

Ich würde da gerne mal WISSEN was Sache ist, nicht immer nur vermuten.

DeMarcus
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.03.2008, 18:30

Beitrag von DeMarcus » 15.05.2008, 20:08

Andreas I. hat geschrieben:Das ist technisch nicht zu entdecken, wenn man die robots.txt beachten soll.

Ein Google Qualityrater würde das entdecken. (Sollte das entdecken können, wenn er nicht schon morgens um 9 Uhr besoffen zur Arbeit erscheint...) Die kommen per Browser.

Und nach der Entdeckung beschäftigt der sich dann eine Weile mit Deinem kompletten Domain-Portfolio.
Danke für die gute Antwort.
Ich habe bei dem ganzen auf sehr viel geachtet. (Immer andere Titles, andere Wörter, andere Texte).

"Ein Google Qualityrater" der per Zufall auf die Kundenseite kommt und hier sonst keine Auffälligkeiten sieht...? Ist da ein Treffer im Lotto nicht wahrscheinlicher? Die Frage ist, ob Google die externe CSS überhaupt ausliest? Also ob man sich überhaupt die "Auffälligkeit" der Sperrung der CSS Datei leisten sollte.

Und wenn ich das lesen, dann machen mir die Quality Rater" auch nur mäßig Sorge. https://news.worldsites-schweiz.ch/was- ... -rater.htm

Andreas I.
PostRank 9
PostRank 9
Beiträge: 1464
Registriert: 18.03.2006, 14:36
Wohnort: Hamburg

Beitrag von Andreas I. » 15.05.2008, 20:15

Mit eine der ersten Aktionen, die so ein Qualityrater wohl macht, ist einmal auf strg-a zu drücken. (Alles markieren...) Das dauert nur einen Sekundenbruchteil und dabei werden solche versteckten Texte dann entdeckt.

Ich bin aber kein Qualityrater, das ist also nur eine Vermutung von mir. Aber wenn das so einfach zu entdecken ist, werden die das schon machen...

xoni
PostRank 8
PostRank 8
Beiträge: 692
Registriert: 22.08.2007, 12:14

Beitrag von xoni » 15.05.2008, 20:16

Andreas I. hat geschrieben:Das ist technisch nicht zu entdecken, wenn man die robots.txt beachten soll.
@ andreas

Ist das wirklich so? gibt es eine gesicherte Erkenntnis, das Google die Angaben zu 100% beachtet? Würde mich wirklich interessieren...

Gruß, wollbay

DeMarcus
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.03.2008, 18:30

Beitrag von DeMarcus » 15.05.2008, 20:18

Andreas I. hat geschrieben:Mit eine der ersten Aktionen, die so ein Qualityrater wohl macht, ist einmal auf strg-a zu drücken. (Alles markieren...) Das dauert nur einen Sekundenbruchteil und dabei werden solche versteckten Texte dann entdeckt.

Ich bin aber kein Qualityrater, das ist also nur eine Vermutung von mir. Aber wenn das so einfach zu entdecken ist, werden die das schon machen...
Ja, ich mach das auch... Aber wenn der Linktext "links" heißt und in der CSS Schriftgröße = 1px und BG Colo= background hat, dann kann ein STRG + A auch nicht viel anzeigen.
Ich habs auch probiert und würde den Link nur sehen, wenn ich weiß wo er ist.

DeMarcus
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 03.03.2008, 18:30

Beitrag von DeMarcus » 15.05.2008, 20:22

wollbay hat geschrieben:
Ist das wirklich so? gibt es eine gesicherte Erkenntnis, das Google die Angaben zu 100% beachtet? Würde mich wirklich interessieren...

Gruß, wollbay
DAS ist genau meine Frage.

Das ist eben auch eine grundsätzlichge Frage.
Denn eigentlich gibt es bei kaum einer Sache eine Gewissheit. Die großen Foren-Guros haben zwar immer tolle Hinweise, aber eigentlich kann es auch genau anders sein. Da es hunderte Faktoren für ein Webranking gibt, gleicht die Suche nach der Ursache einer Veränderung der Suche nach der brühmten Nadel im Heuhaufen.

Warum sollte google die robots.txt nicht auslesen?

Ich glaube, daß es ein Katz und Maus Spiel ist. Und die Katze hat bei der Vielzahl an Seiten viel zu tun. Automatisch kann man das alles nicht auslesen. Wenn der Link nun eine Grafik mit der Größe 1x1 px oder doch größer aber mit gleicher Farbe wie der Background ist?
Was passiert dann?
Da brauche ich noch nicht mal mehr CSS oder eine robots.txt.....

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag