Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Genug gelabert jetzt Analysieren

Alles zum Thema Google Pagerank und Backlink Updates.
Neues Thema Antworten
Thomas B
PostRank 9
PostRank 9
Beiträge: 1810
Registriert: 04.12.2005, 12:50

Beitrag von Thomas B » 02.05.2007, 17:31

Also das valides html wichtig ist, sollte wohl jedem klar sein.

Aber der PR hat ja wohl relativ wenig mit validem html zu tun, sondern kommt einzig und allein durch Links zustande. Werden starke linkgebende Seiten, aus welchen Gründen auch immer abgewertet, so fällt der eigene PR. Andersrum steigt er. PR definiert die Wichtigkeit einer Seite, nicht die Qualität des Inhalts.

Das war bis jetzt zumindest immer meine Meinung.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

BAMBAM15285
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 20.07.2006, 14:12
Wohnort: Uelzen

Beitrag von BAMBAM15285 » 03.05.2007, 08:46

Hallo!

Das sehe ich genau so. Die Validität hat mit dem PR einer Seite 0 zu tun. Wenn du eine valide Seite hast, bringt es den Vorteil mit sich das sich der Spider der Sumas mehr schafft weil er nicht ständig auf Fehler stößt. Der PR hat auch nichts mit dem Ranking zu tun wie immer angenommen wird. Wenn ich mir so manche PR 6 Seite ansehe und diese dann nach Backlinks spider wird dir ganz anders und du denkst wie kann das sein. Einfach nur auf PR gebaut. Solche Seiten schlägst du mit einer starken PR 4 oder PR 3 Seite, die optimiert ist und viele BLs aufweist locker.

Gruß Nick

linkpartner-gesucht.de
PostRank 2
PostRank 2
Beiträge: 56
Registriert: 03.05.2007, 09:53
Wohnort: Stuttgart

Beitrag von linkpartner-gesucht.de » 03.05.2007, 09:58

thestranger hat geschrieben:ich habe vorhin einen linktipp bekommen, welchen ich euch nicht vorenthalten möchte...
https://www.website-boosting.de/blog/20 ... unter.html
Interessanter Artikel und auf jeden Fall nachvollziehbar, warum Google das macht.
Umso mehr freut man sich da doch über einen ganz frischen PR7. Natürlich nur aus Linktausch-Sicht :wink:

Gruß
Florian
Biete + suche PR5 Startseitenlink Bereich Reise/Urlaub!
Linkpartner gesucht? - www.linkpartner-gesucht.de

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

klixi
PostRank 5
PostRank 5
Beiträge: 262
Registriert: 24.01.2006, 09:37

Beitrag von klixi » 03.05.2007, 16:44

volle bestätigung....sogar die New York Times ist von 9 auf 8 gerutscht....Also, gurgel hat alles mal -1 gerankt.... 8)

Thomas B
PostRank 9
PostRank 9
Beiträge: 1810
Registriert: 04.12.2005, 12:50

Beitrag von Thomas B » 10.05.2007, 23:08

Ich glaube nicht, das Google bei Seiten den PR senkt, nur damit nicht alle in ein paar Jahren einen 9er oder 10 er haben. Jeder weiss doch, wie schwierig es ist 9er oder 10er Links zu bekommen. Die kosten schon einiges.

Wenn ich Google wäre, würde ich folgendes machen.

1. Bei Seiten die willkürlich, oder durch irgendwelche Algos ausgewählt werden den PR senken.

2. Warten was passiert.

Wenn jetzt auf diesen Seiten Links entfernt werden, handelt es sichoffensichtlich um Linkverkäufer oder Linktauscher.

Dann würde ich handeln - ist aber nur eine Gedankenspielerei. :wink:

chio
PostRank 9
PostRank 9
Beiträge: 1153
Registriert: 01.01.2004, 16:53
Wohnort: wien

Beitrag von chio » 10.05.2007, 23:32

Nur kurz für die Quatschköpfe, die einen Zusammenhang zwischen PR/Ranking/Validität herstellen: Zwei meiner Sites haben PR gewonnen: beide nicht valid, eine (sogar) Frames.
Ich _kann_ schon valide Seiten machen, wenn ich will. Allein: ich habe andere Hobbys, als irgendwelche kruden Vorgaben des greisen W3C zu erfüllen. (alt="")
Es gibt keinen Zusammenhang. Einige Tricks mit Frames funktionieren nicht mehr. Das ist alles.
Nebenbei: als jemand, der einen Spider programmiert hat (wenn auch nur ein kleiner) weiß ich gut, worauf es dabei ankommt. Validität ist eine Nebenerscheinung, die meistens keine Rolle spielt.

@Thomas B
Ja. Das automatisierte Stimmungsbarometer. Google ist Meister darin.

Schnipsel
PostRank 10
PostRank 10
Beiträge: 7207
Registriert: 13.07.2006, 22:09
Wohnort: Sonneberg

Beitrag von Schnipsel » 11.05.2007, 00:52

chio hat geschrieben:Nur kurz für die Quatschköpfe, die einen Zusammenhang zwischen PR/Ranking/Validität herstellen: Zwei meiner Sites haben PR gewonnen: beide nicht valid, eine (sogar) Frames.
Ich _kann_ schon valide Seiten machen, wenn ich will. Allein: ich habe andere Hobbys, als irgendwelche kruden Vorgaben des greisen W3C zu erfüllen. (alt="")
Es gibt keinen Zusammenhang. Einige Tricks mit Frames funktionieren nicht mehr. Das ist alles.
Nebenbei: als jemand, der einen Spider programmiert hat (wenn auch nur ein kleiner) weiß ich gut, worauf es dabei ankommt. Validität ist eine Nebenerscheinung, die meistens keine Rolle spielt.

@Thomas B
Ja. Das automatisierte Stimmungsbarometer. Google ist Meister darin.
Ich bin begeistert- so einfach kann man das Valididätsgefasel auf den Punkt bringen... Die bunten Buttons auf vielen Seiten mit dem Verweis auf W3C valide fand ich schon immer lustig

Seo
PostRank 9
PostRank 9
Beiträge: 1709
Registriert: 19.07.2005, 17:14

Beitrag von Seo » 11.05.2007, 09:50

Das sehe ich auch so, sauberer Code ist mir egal, hab auf vielen Domains über 100 Fehler beim W3C Check und trotzdem PR+ und die Platzierungen haben sich auch verbessert.

Google ist es sowas von egal ob ne Seite zu 100 % sauberen Code hat oder nicht, der Robot muß nur richtig spidern können und das war´s !!

Troll
PostRank 5
PostRank 5
Beiträge: 274
Registriert: 11.05.2006, 17:51
Wohnort: Schwabenland

Beitrag von Troll » 11.05.2007, 09:56

Google ist es sowas von egal ob ne Seite zu 100 % sauberen Code hat oder nicht, der Robot muß nur richtig spidern können und das war´s !!
Genauso ist es. Alles andere macht kein Sinn. Sind die allgemeinen "Spielregeln eingehalten, klappt das auch mit google. Gleichgültig wie viele Fehler.

Diese W3C Geschichte kann ich sowie so abhaben. Richtlinien muß jeman aufstellen, dass ist klar. Wenn sich aber die Browser nicht 100% daran halten ist es doch sowieso für die Katz.

nicknolte1253
PostRank 2
PostRank 2
Beiträge: 43
Registriert: 12.12.2006, 00:05

Beitrag von nicknolte1253 » 12.05.2007, 17:32

Im Grossen und Ganzen mag das mit Validität auch so stimmen. Allerdings hat mir ein Google Mitarbeiter auf einer Messe presönlich gesagt, dass auch die Validität mit eingeht nur wie stark wusste er selbst auch nicht. Das weiss wohl nur MattCutts. Es gibt ja über 200 Parameter die Google prüft um Schlüsse zu ziehen. Im Zweifelsfall sieht aber auch mal eine Human auf die Seite.

Ich würde das mit der Validität so sehen:

Sind 2 Seiten gleichwertig und die eine hat lauter Fehler dann gibts die A*** Karte. Heisst die fehlerfreie Seite steht eben noch etwas besser da.

In der Praxis ist es natürlich für jeden Webmaster ein Alptraum sich mit W3C Richtlinien auseinanderzusetzen es gibt wichtigeres dass sehe ich auch so. Aber wer mal keine Kreuzworträtsel parat hat und die Zeit totschlagen möchte, der kann versuchen alles W3C konform zu machen. Sysiphus lässt grüssen.

Fazit die Konformität wäre nur das I-Tüpfelchen.
Wobei wer mal W3C auf die grossen Portale anwendet dürfte sich da kräftig wundern.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag