Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

css und spamming

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
herpes
PostRank 1
PostRank 1
Beiträge: 16
Registriert: 16.03.2005, 16:49
Wohnort: berlin

Beitrag von herpes » 19.03.2005, 19:38

hallo und guten tag!

wird bei google mittlerweile externes css ausgelesen? ich frage das nicht, weil ich jetzt css tricks anwenden will (vivibility:hidden etc). ich bin der meinung das gute seiten auch ohne spam auskommen. mich interessiert das um eine vorstellung davon zubekommen wie der algor. von goole funktioniert, bzw sich entwickelt.
alle postings zu dem thema die ich auf diesem forum finden konnte sind meistens ein jahr alt, und da hiess es das externes css noch nicht eingelsen werden kann aber wohl bald doch etc..
gilt das dann auch fuer javascript?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 19.03.2005, 20:18

Wen der bot (der offizielle mit entsprechendem User-agent) sich externe *.CSS oder *.JS-Files holen würde, müsste das in den logs zu sehen sein. Ist es aber definitiv nicht.
Die Tatsache, dass Spam-Methoden, die auf CSS oder JS basieren scheinbar nach wie vor gut funktionieren, deutet darauf hin, das G** sich die auch nicht "getarnt" holt.
Ich denke, es ist nicht so einfach algo-basiert "gutes" JS/CSS vom "schlechten" zu trennen.
Wenn jemand z.B. Layer mittels JS ein- oder ausblenden will (für den USER gemacht) oder besondere Spielereien verwirklicht, nutzt er die gleichen Konstrukte wie ein Spammer.
Wenn es so einfach wäre, hätte G** schon längst CSS oder JS ausgewertet. Ich bin sicher das kommt noch, aber momentan ist es nicht der Fall.
Bei eingebettetem JS wird aber alles verfolgt, was irgendwie nach URL aussieht...

herpes
PostRank 1
PostRank 1
Beiträge: 16
Registriert: 16.03.2005, 16:49
Wohnort: berlin

Beitrag von herpes » 22.03.2005, 17:27

Ich denke, es ist nicht so einfach algo-basiert "gutes" JS/CSS vom "schlechten" zu trennen.
Wenn jemand z.B. Layer mittels JS ein- oder ausblenden will (für den USER gemacht) oder besondere Spielereien verwirklicht, nutzt er die gleichen Konstrukte wie ein Spammer.
einen layer der per css unsichtbar gesetzt wurde aber ne menge keywords
beinhaltet , koennte doch als spam zumindest verdaechtigt werden.
vor allem wenn es zb. direkt nach dem body tag kommt, oder?

Die Tatsache, dass Spam-Methoden, die auf CSS oder JS basieren scheinbar nach wie vor gut funktionieren, deutet darauf hin, das G** sich die auch nicht "getarnt" holt.
solche seiten koennten doch aber auch verpetzt werden bei google. und die seiten fliegen dann raus?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Andy.C
PostRank 5
PostRank 5
Beiträge: 249
Registriert: 22.03.2005, 04:01
Wohnort: Berlin

Beitrag von Andy.C » 22.03.2005, 18:41

Besten Dank für den Hinweis Gurgelboot :) man Lernt ja nie aus Oo
Gruß

danielr
PostRank 7
PostRank 7
Beiträge: 530
Registriert: 11.11.2003, 15:12
Wohnort: Ural

Beitrag von danielr » 22.03.2005, 22:14

ich denke css auszulesen und zu bewerten sollte für google in einem gewissen rahmen schon machbar sein. nur ist es vielleicht noch nicht "marktreif". angewendete tricks, die per css-technik stattfinden, wie z.b. das positionieren von texten oder links im negativen seitenbereich, sollten einfach erkennbar sein.

gruß,
danielr

ps: damit alle was davon haben, hier ein css-trick für alle

"
position: absolute;
margin-left: -500px;
margin-bottom: -100px;

"

dies einfach als klasse definieren und dann den links mit übergeben.

phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 22.03.2005, 23:27

danielr hat geschrieben:wie z.b. das positionieren von texten oder links im negativen seitenbereich, sollten einfach erkennbar sein. [...] dies einfach als klasse definieren und dann den links mit übergeben.
Der Google-Paranoiker definiert in diesem Fall keine Klassen - weil Google schlau (TM) ist! - sondern arbeitet mit verschachtelten Selektoren. ;-)

Edit: Als Privater Homepagebastler und intensiver Suchmaschinennutzer sehe ich diese sogenannten Tips immer mit leicht zusammengekniffenen Mundwinkeln...

danielr
PostRank 7
PostRank 7
Beiträge: 530
Registriert: 11.11.2003, 15:12
Wohnort: Ural

Beitrag von danielr » 23.03.2005, 00:04

phereia hat geschrieben:
danielr hat geschrieben:wie z.b. das positionieren von texten oder links im negativen seitenbereich, sollten einfach erkennbar sein. [...] dies einfach als klasse definieren und dann den links mit übergeben.
Der Google-Paranoiker definiert in diesem Fall keine Klassen - weil Google schlau (TM) ist! - sondern arbeitet mit verschachtelten Selektoren. ;-)

Edit: Als Privater Homepagebastler und intensiver Suchmaschinennutzer sehe ich diese sogenannten Tips immer mit leicht zusammengekniffenen Mundwinkeln...
kontextselektoren? :idea:

gruß,
danielr

ps: wieso zusammengekniffene mundwinkel? :D

Reimer
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 27.08.2004, 18:49
Wohnort: Kiel

Beitrag von Reimer » 23.03.2005, 01:38

Das Problem ist, dass es einfach 923 unterschiedliche Möglichkeiten gibt um Elemente auszublenden. Sei es position, display, visibility, overflow, z-index, margin, padding, color,... Dann kann man das noch alles mit Javascript kombinieren etc.

Antworten