Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Seite mit dem höchsten PageRank: eine unwichtige Subdomain

Alles zum Thema Google Pagerank und Backlink Updates.
Beloe007
PostRank 10
PostRank 10
Beiträge: 2928
Registriert: 05.03.2009, 10:31

Beitrag von Beloe007 » 11.03.2009, 10:41

-selbst gelöscht-
Zuletzt geändert von Beloe007 am 29.12.2010, 14:02, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 11.03.2009, 22:44

RW hat geschrieben:
Ich arbeite jetzt aus Performance-Gründen aber nur noch mit:
UA: bot,crawler,java,search,spider

erscheint unzureichend !
Ich denke Das solltest Du nochmals bei Deinen Seiten überdenken!
Das reicht mir. 95+% der Bots werden damit abgedeckt und der Rest interessiert mich nicht mehr, weil ich wie gesagt nicht mehr zwischen Gast und Bot unterscheide, außer bei der internen Session-Verwaltung. Und diese ganzen Filter auf die IP bringen eh nichts außer Performance-Nachteile mit sich. Ab einer gewissen Anzahl von Seitenaufrufen wird das einfach zu einem Problem.

Wenn Google meint sich als normalen User ausgeben zu müssen, dann sollen sie es machen. Solange sie das prozentual gesehen im Rahmen lassen, sehe ich aktuell keine Veranlassung da was dran zu ändern.
Das ist mir bekannt gewesen, dennoch denke ich wird nur ein hash der Seite erzeugt und mit dem Datenbankeintrag abgeglichen.

Beispiel:

Code: Alles auswählen

$a = 'http://www.maxrev.de/felgenbett-polieren-mit-oder-ohne-klarlack-t28752,start,40.htm';
$b = 'http://www.maxrev.de/viewtopic.php?t=28752&start=40';
$a == $b
erzeugt Dublikate weil Prüfsumme a == Prüfsumme b
DC hat damit jetzt nichts zu tun. Ich wollte nur ausdrücken, dass Google als gefakter Besucher von mir eine Session ID erhalten hat, weil die alle Gäste bekamen (jetzt nicht mehr) und deswegen die ID im Index auftauchte.

Und $b war schon immer per robots.txt verboten. Seit ca. 2 Wochen ist $b laut robots.txt erlaubt, wird aber auf $a permanent weitergeleitet. Trotzdem hat Google erstmal $b mit Content gefüllt, statt der Weiterleitung zu folgen, was die Vermutung zulässt, dass Google die Seiten noch im Index hatte und vorher sehr wohl eingelesen hat oder sie der Weiterleitung erst später folgen und den Zielcontent solange aufnehmen.
Falls Du damit meinst, dass ich Cookies zur Prüfung heranziehen soll... das kann ich nicht, weil meine Seite auch ohne funktioniert und von vielen so genutzt wird.
Ich lasse mich gerne vom Gegenteil überzeugen das die Google Bots Cookies verstehen. :idea:
Verstehe ich nicht. Hab ich doch gar nicht behauptet. Ich hab doch nur gesagt, dass ich nicht auf Cookies verzichten kann wg. meinen Usern. Wenn ich also alle Besucher ohne Cookies als Bots bewerte, schließe ich eine gewisse Gruppe von Besuchern ebenfalls aus, weil die sich dann nicht mehr einloggen bzw. Beiträge schreiben könnten. Das wollte ich damit nur ausdrücken.
Wenn dich aber der PR nicht interessiert, wieso dann überhaupt das Thema? Wenn mich was nicht interessiert, dann interessiert es mich auch nicht
Ich kann mich gerne wiederholen. Es interessiert mich nur, warum meine Subdomain höher gewertet wurde, da ich selbst auch den Verdacht auf eine Abstrafung oder ähnliches hatte. Und ich denke Du wüsstest auch gerne, warum Deine Seite abgestraft ist.

Welche Tragweite so eine Abstrafung mit sich bringt, kann ich jedenfalls nicht sagen. Wenn nur der Balken davon beeinflusst ist, mag das uninteressant sein, aber weißt Du das verbindlich? Solange es da keine verbindlichen Informationen gibt, muss ich davon ausgehen, dass meine Seite zu den bösen Buben für Google gehört und dazu will ich eben nicht zählen. Ganz einfach.

Es kann ja auch gut sein, dass meine Seite irgendjemanden nicht passt und er mich auf dubiosen Seiten verlinkt hat oder welche lustigen Mittel es da noch geben mag.

Fakt ist, ich weiß es nicht und genau deswegen habe ich hier meine Anfrage gestellt. Und das ich es ernst meine, zeigt doch denke ich, dass ich hier nicht einen auf Mr. Anonym mache, wie es die meisten machen. Bei denen frage ich mich eher, ob da nicht was im Busch ist, was keiner erfahren sollten.
Und in den Foren steht auch nur Schrott drin, was keine Sau interessiert... außer jemand will gerade wissen was Mike für ein Auto fährt und wie er es umgebaut hat... da gibt es aber sicher übersichtlichere Seiten um sich Ideen zu holen.
Genau das gleiche würde ein Autointeressierter über Abakus sagen. "In dem Forum steht nur Schrott über irgendwelche Suchmaschinen drin und wer welchen PR hat". Überleg doch mal was Du da sagst :roll:

Wie in jedem spezialisierten Forum steht Fachwissen drin. Nur weil Du davon keine Ahnung hast, musst Du nicht gleich verallgemeinern. Solltest Du eigentlich in der Schule gelernt haben. ;)
Ich kaufe Dein Forum!
Kontaktdaten

wulfo
PostRank 9
PostRank 9
Beiträge: 994
Registriert: 05.02.2004, 17:28
Wohnort: Sachsen

Beitrag von wulfo » 12.03.2009, 00:23

HI Mgutt
Ich bleibe nunmal dabei, dass ich nicht wüsste, was ich jemals falsch gemacht haben sollte
1. Zählen ist nicht deine grosse Stärke oder, ich kann dir gern mehr als 10 oder 20 Gästerbücher bringen hier

2. Dann solltest du mal die Links von webby sehen, der sich ja auch deiner Meinung nach da eingetragen hat, versuche mal den Unterschied rauszufinden :wink:

bringt eben nichts wenn man nur halbherzig hinschaut :idea: zb so was
https://www.gbserver.de/forum,17,00,117.html

das sind gezielte Empfehlungen, bei dir ist es Spam
Es kann ja auch gut sein, dass meine Seite irgendjemanden nicht passt und er mich auf dubiosen Seiten verlinkt hat oder welche lustigen Mittel es da noch geben mag.
ja das wäre durchaus eine Möglichkeit, vielleicht jemand der sich dadurch gestört fühlt das du mehr sein willst als du bist eben mit SEO etc

Code: Alles auswählen

 Bei denen frage ich mich eher, ob da nicht was im Busch ist, was keiner erfahren sollten. 
auch da könntes du recht haben, hauptursache wird aber sein das viele Ihre Linkquellen nicht den gesamten SEOs aufzeigen wollen