Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

schlechteres Ranking wegen PopUp auf der Seite?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
derExperte
PostRank 6
PostRank 6
Beiträge: 412
Registriert: 22.05.2003, 20:20
Wohnort: Darmstadt

Beitrag von derExperte » 21.09.2004, 16:27

Hallo zusammen,

ich würde gerne mal Eure Erfahrungen zu nachfolgenden Tests hören:

Seit knapp 3 Monaten teste ich den Einfluss von JavaScript-Code auf das Google-Ranking. Interessanterweise kann ich eine Verschlechterung um wenige Plätze im Ranking erkennen, wenn auf der Seite JavaScript-Code hinzukommt (sofern vorher gar keiner drauf war!).

Gibt es ähnliche Erfahrungswerte bei Euch? Gerne lasse ich mich auch von einer anderen Erklärung für dieses Phänomen überzeugen!

Grüße Thomas

PS: Natürlich nur Beobachtungen und keine Behauptungen :-)

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 21.09.2004, 16:35

Hallo Thomas!

Was wird den genau in deinem Fall mit d. JavaScript-Code 'erzeugt' `? Wie sieht die Code aus, wo ist diese platziert`?

Grüsse
Hasso

derExperte
PostRank 6
PostRank 6
Beiträge: 412
Registriert: 22.05.2003, 20:20
Wohnort: Darmstadt

Beitrag von derExperte » 21.09.2004, 16:46

Hallo Hasso,

was oder wie der JavaScript-Code aussieht spielt keine Rolle (zumindest bei meinen Beobachtungen). Ob man also einen PopUp, Tracker oder auch einfach fehlerhaften sinnlosen Code auf der Seite hat oder auch nur den Link zur externen JavaScript-Datei hat keinen Unterschied gemacht! (Immer in Bezug auf Code <-> gar keinen Code)

Grüße Thomas

PS: Auch über die Platzierung konnte ich keine Unterschiede feststellen.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 21.09.2004, 17:29

@Thomas
Tja, da kann ich mir erstmal kein klares Bild zu dieser Sache 'malen'...
Deartige Nachteile sind mir im Normalfall erstmal aus meiner Praxis nicht bekannt.
Habe große Zweifel bei der Sache, aber ich will deine Feststellung nicht unbeantwortet stehen lassen und hoffe die anderen Kollegen hier können mehr dazu sagen... Da bin ich mal gespannt :wink:


Grüsse
Hasso

Jojo
PostRank 9
PostRank 9
Beiträge: 2847
Registriert: 19.03.2004, 10:33
Wohnort: Papenburg

Beitrag von Jojo » 21.09.2004, 17:32

Also, nur an JavaScript wird es doch wohl nicht liegen. AdSense wird ja schließlich auch per JavaScript eingebunden.

derExperte
PostRank 6
PostRank 6
Beiträge: 412
Registriert: 22.05.2003, 20:20
Wohnort: Darmstadt

Beitrag von derExperte » 21.09.2004, 18:41

um mal mehr über die Testumgebung zu sagen (kann dann ja jeder mal ausprobieren):
- Man erstellt einfach zu einer Keyword-Phrase zwei oder mehr identische Seiten, die entsprechend identisch verlinkt sind.
- nun wird eine bzw. zwei dieser Seiten in Reihenfolge bei google gefunden.
-> jetzt Änderungen durchführen (z.B. javascript-code ergänzen)
- beobachten ob die Reihenfolge sich ändert

Das ist jetzt natürlich nur sehr einfach ausgedrückt und man kann dieses System natürlich noch viel umfangreicher machen, die Resultate sind aber bei mir zumindest immer die gleichen gewesen: mit javascript-code erhalte ich eine Ranking-Verschlechterung.

@jojo: den adsense-code hatte ich nicht ausprobiert!

Marti
PostRank 1
PostRank 1
Beiträge: 29
Registriert: 18.06.2003, 08:49

Beitrag von Marti » 21.09.2004, 18:57

ich denke es kann nicht im Sinne Googles sein das der Quelltext im vergleich zum Text zu groß ist.

Ich habe Zweifel ob Google den reinen Text erfasst und den Quelltext dann nocheinmal.

irgendwie muß Google mit Scripten im quelltext dann umgehen bzw bewerten. Da Scripte oft wenig relevantes enthalten verschlechtern sie auch so wohl eher.

Google sollte Scripte im Source der Seite wohl diskret seperat behandeln.

Grüsse

Hasso
PostRank 9
PostRank 9
Beiträge: 2107
Registriert: 12.01.2004, 13:18

Beitrag von Hasso » 21.09.2004, 19:44

derExperte hat geschrieben:um mal mehr über die Testumgebung zu sagen (kann dann ja jeder mal ausprobieren):
- Man erstellt einfach zu einer Keyword-Phrase zwei oder mehr identische Seiten, die entsprechend identisch verlinkt sind.
Also nie und nimmer kann man 'identische Seiten' mit 'entsprechend identischer Verlinkung erstellen.' Diese zwei Seiten werden aus mehren Gründen immer unterschiedlich von Google behandelt! :wink:


Ist wie immer nur meine persönliche Meinung 8)

Grüsse
Hasso

FrankyGER
PostRank 3
PostRank 3
Beiträge: 90
Registriert: 27.01.2004, 18:43

Beitrag von FrankyGER » 21.09.2004, 19:57

wie man identische Seiten beide/alle in den Index bekommt, würde mich auch interessieren :-)

Ich könnte jetz höchstens mal mutmassen, wenn das stimmen würde, käme ja der relevante Textteil tiefer auf der Seite. Da ja schon oft gemunkelt wurde, was oben auf der Seite ist, ist wichtiger, würde sich der relevante Text deiner Seite nach unten verschieben und weniger Wichtigkeit einheimsen.
Erweitere deinen Test doch mal auf javascript am Ende der Seite.

Gruß, Frank

derExperte
PostRank 6
PostRank 6
Beiträge: 412
Registriert: 22.05.2003, 20:20
Wohnort: Darmstadt

Beitrag von derExperte » 21.09.2004, 23:45

ihr seht das ein wenig zu streng! Es geht nicht darum nachzuweisen, daß man identische Seiten in den Index bringen kann, sondern um die Relation möglichst identischer Seiten zueinander. (Und hier kann man sehr wohl durch Umkehrungen eine aussagekräftige Testumgeben herstellen!)

Es wurden wie gesagt viele Beispiele und Szenarien getestet und dies auch über knapp 3 Monate. Jedoch sind es natürlich nur Beobachtungen und darum frage ich nach ähnlichen aber auch nach konträren Erfahrungen.

nächtliche Grüße
Thomas

derExperte
PostRank 6
PostRank 6
Beiträge: 412
Registriert: 22.05.2003, 20:20
Wohnort: Darmstadt

Beitrag von derExperte » 21.09.2004, 23:48

@FrankyGER:

Die Platzierungen wurden selbstverständlich variiert, allerdings mit denselben Beobachtungen.

Identische Seiten zu erstellen und im Index zu haben ist ja gar kein Problem! Schwer wird es wenn man den Seiten das möglichst identische Gewicht mitgeben will. Dies ist zugegebener Maßen (ohne den Algo zu kennen) natürlich nahezu unmöglich.

Also einfach zwei Testumgebungen: bei der zweiten Testumgebung werden die Seiten einfach getauscht!

Fruetel
PostRank 6
PostRank 6
Beiträge: 392
Registriert: 05.06.2003, 22:00
Wohnort: Essen

Beitrag von Fruetel » 22.09.2004, 05:32

Kann mir durchaus vorstellen, dass es ein solches Ranking Kriterium gibt. Vielleicht ist Javascript ja wirklich ein Indiz für 'schlechtere' Seiten, was nicht heisst, dass es zweifellos auch erstklassige Seiten mit JS gibt - genauso wie es hervorragende Frameset-Seiten gibt.

Aber würde man mal zufällig 1000 Seiten ohne Javascript und 1000 Seiten mit Javascript zufällig aus dem Web auswählen, und jede dieser Seiten manuell auf Grundlage ihrer geschätzten Qualität auf einer Skala von 1-10 bewerten: Ich kann mir sehr gut vorstellen, dass die Seiten ohne Javascript da signifikant besser abschneiden, da bei den Seiten mit JS bestimmt mehr 'Katastrophenseiten' mit automatischer Weiterleitung, Blinkibunti-Effekthascherei oder unbrauchbarer Navigation dabei sein werden. Vielleicht hat man ja bei Google mal ähnliche Erhebungen gemacht, und diesen Faktor dann ins Ranking einfliessen lassen (mit minimaler Gewichtung).

Gruss,
Thomas
Aktuell im Webmaster Blog:
Bild

harry25
PostRank 3
PostRank 3
Beiträge: 88
Registriert: 04.05.2004, 11:48

Beitrag von harry25 » 22.09.2004, 06:20

ich glaube schon, dass popups per javascript verschlechterungen mit sich bringen. Anderen JS Code kann ich nicht beurteilen. Ich hat mit einer site pos 6-8 bei einem keyword(bei ca. 2 Millionen ergebnisse). Dann wollte ich die page optimieren. Ich wollte die PR-Abfluss von meiner Site verringern, indem ich sämtliche ausgehende Links mit window.open verlinkte. Einige Tage später war ich weg vom fenster(> pos 200). Window.open wieder raus und I'm back again!

Das ganze ist schon einige Monate her. Man kann das vielleicht so erklären, das popups die qualität einer Website beeinträchtigen. Sites mit vielen (themenfremden?) popups nerven den Kunden(Suchenden bei Google), deshalb werden sie abgewertet. Das ganze ist jedoch nicht wissenschatlich bis ins letzte Detail erforscht, sondern ist mir nur aufgefallen.

nosearchscores
PostRank 7
PostRank 7
Beiträge: 518
Registriert: 12.08.2003, 19:09

Beitrag von nosearchscores » 22.09.2004, 15:50

mal sehen.

pos 7 und heute mal java asugebaut, wenn es was bringt, melde ich mich...

derExperte
PostRank 6
PostRank 6
Beiträge: 412
Registriert: 22.05.2003, 20:20
Wohnort: Darmstadt

Beitrag von derExperte » 22.09.2004, 16:42

Wie Fruetel das wohl schon richtig festgestellt hat, sind die Gewichtungen doch sehr gering. Alles andere wäre auch nicht wirklich sinnvoll. Jedoch bin ich wirklich mal gespannt, ob z.B. nosearchscores eine Änderung des Rankings feststellen kann.

Grüße Thomas

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag