Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Da Google nur sehr zoegerlich und widerwillig dynamische URLs spidert.csx hat geschrieben:Wie ich hier immer wieder lese, werden phpBB und Konsorten, um sie sumafreundlich zu machen, im Quellcode verändert. Warum?
Rewrite-Rules sind ja ein wesentlicher Bestandteil der Modifikation. Aber gerade nicht mit einem 301, so dass die dynamischen URLs gar nicht fuer die SuMa sichbar ist. Du musst aber den Code modden, damit das Forum keine weiteren dynamischen URLs mehr liefert.Wäre es nicht wesentlich einfacher, das ganze mit ein paar RewriteEngine-Zeilen in der .htaccess zu machen? Also 301er auf die sumafreundlichen URLs und dann Rewrites um die Forenscripts aufzurufen.
Auf WMW gab es ein paar Kommentare dazu. Da sind einige Seiten abgesackt auf Grund (so wurde dort geschrieben) massig 301er. Ich habe (allerdings kurz vor Start des Bourbon Updates) ebenfalls etwas ueber 100 Seiten (was ja nun nicht wirklich viel ist) umbenannt und per 301 umgeleitet. Fand Google gar nicht gut und hat rumgezickt. Kann aber auch mit dem Updateprozess zu tun haben. Nach knapp 1 1/2 Wochen war wieder alles im Lot.Oder reagiert Google allergisch auf "zu viele" 301er? Und wenn ja, was sind "zu viele"?
Schon klar. Ich meinte, um beim Bsp zu bleiben: Google findet die URL viewforum.php?f=10 und ruft sie auf. Daraufhin bekommt Google einen 301 auf die URL forum10.html und ersetzt die Original-URL daher intern durch die umgeleitete. Dann ruft Google forum10.html auf und bekommt vom Server den entsprechenden Inhalt von viewforum.php?f=10 serviert.Chris2005 hat geschrieben: Beispiel: Google ruft forum10.html auf und bekommt den Inhalt von viewforum.php?f=10 praesentiert. Aber eben ohne 301, d.h. die viewforum taucht fuer Google gar nicht auf.
Danke für die Info. Was aber, wenn jemand seine Seite mittels 301er in der htaccess von "example.com" auf "www.example.com" umschreibt. Das ist doch ziemlich Standard. Das bedeutet aus Googles Augen im Grunde ja auch ein 301er je ungünstig (ohne "www") verlinkter Seite.Chris2005 hat geschrieben: Auf WMW gab es ein paar Kommentare dazu. Da sind einige Seiten abgesackt auf Grund (so wurde dort geschrieben) massig 301er. Ich habe (allerdings kurz vor Start des Bourbon Updates) ebenfalls etwas ueber 100 Seiten (was ja nun nicht wirklich viel ist) umbenannt und per 301 umgeleitet. Fand Google gar nicht gut und hat rumgezickt. Kann aber auch mit dem Updateprozess zu tun haben. Nach knapp 1 1/2 Wochen war wieder alles im Lot.
Das würde aber das Spidern ziemlich verzögern. Google folgt einem 301 nicht sofort, sondern entweder erst beim nächsten Deepcrawl oder ein paar Tage später. Wenn dann das Forum immer wieder neue 301er produziert ist das irgendwie ungünstig. Ich finde man sollte konsistent bleiben.csx hat geschrieben:Schon klar. Ich meinte, um beim Bsp zu bleiben: Google findet die URL viewforum.php?f=10 und ruft sie auf. Daraufhin bekommt Google einen 301 auf die URL forum10.html und ersetzt die Original-URL daher intern durch die umgeleitete. Dann ruft Google forum10.html auf und bekommt vom Server den entsprechenden Inhalt von viewforum.php?f=10 serviert.
Genau. Wenn Du nur genügend PR hast, dann kriegst Du auch dynamische URLs in den Index (siehe www.phpbb.com PR9), aber ich behaupte wenn die ein gemoddetes phpBB nutzen würden, dann wären es noch viel mehr Dateien.Wie ich dich verstanden habe, mag Google also vor allem nicht, überhaupt Links wie "viewforum.php?f=10" zu verfolgen? Das Problem ist also nicht das Ranking, wenn die URLs erstmal gespidet sind?
Das ist kein Problem und sogar ausdrücklich empfohlen. Sollte es eine Schwelle an "erlaubten 301er pro Zeiteinheit" geben, dann gilt sowas natürlich nur pro Domain.Danke für die Info. Was aber, wenn jemand seine Seite mittels 301er in der htaccess von "example.com" auf "www.example.com" umschreibt. Das ist doch ziemlich Standard. Das bedeutet aus Googles Augen im Grunde ja auch ein 301er je ungünstig (ohne "www") verlinkter Seite.
Naja, das ist ja nicht so wild, ob der neue Content nun heute oder übermorgen drin ist. Hauptsache langfristig stabil.Chris2005 hat geschrieben:Das würde aber das Spidern ziemlich verzögern. Google folgt einem 301 nicht sofort, sondern entweder erst beim nächsten Deepcrawl oder ein paar Tage später.
Wieso das? Geht das nicht genauso, wenn du via 301 die URLs statisch machst. Man braucht ja bloss alle Dupletten via 301 auf die gleiche statische URL leiten.Chris2005 hat geschrieben:Ausserdem kannst Du mit statischen URLs duplicate content (via robots.txt) besser in den Griff bekommen (der zwangsläufig bei phpBB auftritt)
Naja, es wäre ja nicht auf einen Schlag, sondern langsam ansteigend. Einen Versuch ist es vielleicht wert...Chris2005 hat geschrieben:Meiner Einschätzung nach gibt es keine gesicherten Erkenntnisse über die "erlaubte" Menge an 301ern. Ich führe das Gezicke von Google auf den Updateprozess zurück. War halt ein dummer Zufall. Es waren ja auch nur knapp über 100 Dateien. Was aber passiert, wenn Du auf einen Schlag 12000 Datein umleitest, weiss ich nicht.
wenn google viewforum.php?f=10 findet, hat man beim umbau geschlafen.Google findet die URL viewforum.php?f=10 und ruft sie auf. Daraufhin bekommt Google einen 301 auf die URL forum10.html und ersetzt die Original-URL daher intern durch die umgeleitete. Dann ruft Google forum10.html auf und bekommt vom Server den entsprechenden Inhalt von viewforum.php?f=10 serviert.
Moin! Es ging ja gerade darum, das *script* nicht umbauen zu müssen, sondern alles per RewriteEngine zu erledigen.bugscout hat geschrieben: wenn google viewforum.php?f=10 findet, hat man beim umbau geschlafen.
das script wird so modifiziert, dass nur noch forum10.html zu sehen sind, damit kann google gar keine viewforum.php?f=10 finden.
csx hat geschrieben:Wieso das? Geht das nicht genauso, wenn du via 301 die URLs statisch machst. Man braucht ja bloss alle Dupletten via 301 auf die gleiche statische URL leiten.
Das geht so nicht. Das ganze steht auf zwei Beinen, wie Bugscout schon schrieb: Das Script erzeugt Links auf Files, die es nicht gibt, und mod_rewrite schiebt den Links auf nichexistente Dateien die existierenden PHP-Files *unter*. Darin liegt ja gerade der Sinn der ganzen Geschichte, ein 301-er würde das offenlegen und damit wertlos machen...Moin! Es ging ja gerade darum, das *script* nicht umbauen zu müssen, sondern alles per RewriteEngine zu erledigen.
ich hab das mal getestet bei phpbb ohne speziellen umbau liegt das verhältnis von schrott / content bei 8 / 1 (wegen der ganzen profil, quote, sonstwas hin und her links), wenn man die raussiebt kommt man auf unter 0,5 / 1Genau. Wenn Du nur genügend PR hast, dann kriegst Du auch dynamische URLs in den Index (siehe www.phpbb.com PR9), aber ich behaupte wenn die ein gemoddetes phpBB nutzen würden, dann wären es noch viel mehr Dateien.
Google gibt auch einen Grund an, warum sie sowas nicht gerne spidern. Der Crawler könnte sich in den IDs verheddern.
Ausserdem kannst Du mit statischen URLs duplicate content (via robots.txt) besser in den Griff bekommen (der zwangsläufig bei phpBB auftritt)
Mein Reden !bugscout hat geschrieben:aber dann findet google doch erstmal die viewforum.php?f=10 und das soll ja vermieden werden.
In der Tat... phpBB erzeugt viel Müll... Zumindestens in SuMa Hinsicht. Am besten muesste man diese ganzen Links für Gäste ausblenden. Aber das ist wahrscheinlich sehr umfangreich.ich hab das mal getestet bei phpbb ohne speziellen umbau liegt das verhältnis von schrott / content bei 8 / 1 (wegen der ganzen profil, quote, sonstwas hin und her links), wenn man die raussiebt kommt man auf unter 0,5 / 1