Seite 1 von 2
301 redirects lieber lassen
Verfasst: 28.02.2006, 08:38
von Fridaynite
Wie hier
https://www.webpronews.com/blogtalk/blo ... neers.html
geschrieben steht, hat der Googlebot Probleme damit, mehr als 5 Weiterleitungen mit 301 zu fressen.
Nach dem hier immer wieder der 301 als einzig wahre Lösung gebracht wird, sollte dies doch zum Nachdenken anregen.
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Verfasst: 28.02.2006, 08:52
von Wirths Media
2. Ich habe die URL meiner Website geändert.
Wenn Sie Ihre URL geändert haben oder ändern möchten und Google Ihre neue URL anzeigen soll, beachten Sie, dass wir Ihre in unseren Suchergebnissen aufgeführte Adresse nicht manuell ändern können. Sie können jedoch Maßnahmen zur Sicherstellung eines nahtlosen Übergangs ergreifen.
Wenn Sie Ihre alten URLs mithilfe von (dauerhaften) 301-HTTP Umleitungen auf Ihre neue Website umleiten, werden die neuen URLs von unserem Suchroboter erkannt. Weitere Informationen zu 301-HTTP Umleitungen erhalten Sie unter
https://www.ietf.org/rfc/rfc2616.txt.
Die Indizierung durch Google ist zum Teil davon abhängig, ob Ihre Site über Links von anderen Sites gefunden wird. Um Ihr Ranking beizubehalten und unserem Suchroboter die Suche nach Ihrer neuen URL zu erleichtern, wird empfohlen, alle Eigentümer von Websites, die Verknüpfungen zu Ihren Seiten enthalten, über den Adresswechsel zu informieren. Um herauszufinden, welche Websites Verknüpfungen zu Ihrer Website enthalten, können Sie eine Linksuche durchführen. Geben Sie dazu in das Suchfeld von Google "Link:[Ihre vollständige URL]" ein. Um weitere Seiten, die Ihre URL enthalten, zu suchen, führen Sie eine Google-Suche unter Ihrer URL durch und wählen Sie den Link "Webseiten suchen, die den Begriff "…" enthalten". Ändern Sie auch die Einträge, die Sie möglicherweise in Verzeichnisdiensten wie Yahoo! oder Open Directory Project unterhalten.
Sie können auch mit dem Programm Google Sitemaps (Beta) eine Liste Ihrer neuen URLs übermitteln. Google Sitemaps verwendet vom Webmaster generierte Sitemap-Dateien, um Ihre Webseiten zu finden und unsere Suchroboter zu neuem und aktualisiertem Inhalt weiterzuleiten.
In einer solchen Übergangsphase finden wir unter Umständen die Website nicht unter der neuen Adresse. Stellen Sie sicher, dass Links von anderen Websites auf die neue Website verweisen, damit wir Ihre neue Website finden können.
https://www.google.de/webmasters/3.html
301 redirects lieber lassen
Verfasst: 28.02.2006, 08:54
von mcchaos
Danke für die Info! Aber, hm, wofür nimmt man denn einen 301er? Mir fällt jetzt nur ein, dass man damit von einer alten Seiten auf eine neue umleitet. Oder eben DC vermeidet, indem man z.B. "ohne
www." auf "mit
www." umleitet. Was gibt es denn für eine sinnvolle Anwendung, über 5 Weiterleitungen machen zu wollen?
Verfasst:
von
Content Erstellung von
ABAKUS Internet Marketing
Ihre Vorteile:
- einzigartige Texte
- suchmaschinenoptimierte Inhalte
- eine sinnvolle Content-Strategie
- Beratung und Umsetzung
Jetzt anfragen:
0511 / 300325-0
301 redirects lieber lassen
Verfasst: 28.02.2006, 08:54
von Fridaynite
Matt Cutts sagt jedoch, dass ab 5 Stück der Bot ins Schleudern kommt. Das Problem hab ich jedenfalls auf einer Domain. Jetzt weiss ich endlich, warum.
Re: 301 redirects lieber lassen
Verfasst: 28.02.2006, 08:56
von Fridaynite
mcchaos hat geschrieben:Danke für die Info! Aber, hm, wofür nimmt man denn einen 301er? Mir fällt jetzt nur ein, dass man damit von einer alten Seiten auf eine neue umleitet. Oder eben DC vermeidet, indem man z.B. "ohne
www." auf "mit
www." umleitet. Was gibt es denn für eine sinnvolle Anwendung, über 5 Weiterleitungen machen zu wollen?
Um beispielsweise 100 alte Seiten auf 100 neue Seiten mit anderen Dateinamen umzuleiten, weil man die Deeplinks nicht verlieren will.
301 redirects lieber lassen
Verfasst: 28.02.2006, 09:13
von mcchaos
Um beispielsweise 100 alte Seiten auf 100 neue Seiten mit anderen Dateinamen umzuleiten, weil man die Deeplinks nicht verlieren will.
Dazu mache ich aber doch 100x eine Weiterleitung. Im Text reden die aber von 5 Weiterleitungen
hintereinander, die Probleme bereiten:
Matt advises against stringing 301 permanent redirects in a row...
und nicht von max. 5 Weiterleitungen pro Domain. Oder verstehe ich gerade was falsch?
301 redirects lieber lassen
Verfasst: 28.02.2006, 09:18
von Fridaynite
5 Stück hintereinander zu schalten? Wer macht denn sowas? Das wäre doch Oberblödsinn.
Ich verstehe jetzt auf jeden Fall, warum bei einer meiner Domains die Seiten, auf die umgeleitet wird, seit 2 Jahren keinen Pagerank annehmen wollen.
Re: 301 redirects lieber lassen
Verfasst: 28.02.2006, 09:20
von mcchaos
Fridaynite hat geschrieben:5 Stück hintereinander zu schalten? Wer macht denn sowas? Das wäre doch Oberblödsinn.
Sag ich doch
Aber genauso sagt es Matt:
Matt advises against stringing 301 permanent redirects in a row, sending the user (and thus the crawler) through page after page after page until their destination. Anything more than five might confuse Googlebot and make it give up on crawling your site.
Re: 301 redirects lieber lassen
Verfasst: 28.02.2006, 09:44
von 800XE
Fridaynite hat geschrieben:5 Stück hintereinander zu schalten? Wer macht denn sowas? Das wäre doch Oberblödsinn.
könnte passieren ...
wenn man
1. in der htaccess nach Standarddomain www
dann im PHP feststellt das der Pfad/Dateinahme nicht so ist wie er sein soll (und das mehrfach) und jedesmal eine 301
Ich hab in meinem PHP auch Überprüfungen drin
manchmal gibts direkt einen 301 und manchmal erstelle ich einen neuen PfadDateiNamen und vergleiche ganz zum Schluß ob der mit dem RequestPfadDatei überein stimmt ... nein=301
Konkretes Beispiel ...
domain.tld/ordner1/ordner2/ordner3/......./ordner7/
Beim Versuch COntent zu generieren, merkt man das es keine daten gibt für Ordner7
macht einen 301 zurück auf Ordner6
findet wieder keinen Content = 301 nach Ordner5 ....
Oder eben Dieses Contentmodul Rekursiv (mit einen Ordner weniger) aufrufen ohne einen 301 und erst wenn man Content gefunden hat, dann einen 301
Aber wer weis ob sich das PHP da nicht tot läuft und ein 501 (Service nicht erreichbar) das Ergebnis ist
301 redirects lieber lassen
Verfasst: 28.02.2006, 10:03
von SloMo
Das ist nichts weiter als ein einfacher Deadlock-Schutz.
Cutts: "Anything more than five might confuse Googlebot" - ganz schön schwammige Formulierung für:

301 redirects lieber lassen
Verfasst: 28.02.2006, 14:09
von net(t)worker
naja fünf 301 hintereinander ist scho ne Menge.... ich sehe keinen grund warum mehr als 3 nacheinander kommen sollten... 1 mal z.B. aus einen katalog der über ein Zählscript verlinkt, 1 mal mit/ohne www, 1 mal Content verschoben...
anders gesehen, ein Webbrowser folgt auch nicht unendlich den Weiterleitungen, da ist auch irgendwann schluss...
301 redirects lieber lassen
Verfasst: 01.03.2006, 12:47
von gomopa
Erst einmal ein freundliches Hallo als absoluter SEO Neuling an alle Forenteilnehmer.
In den letzten Tagen habe ich mich intensiv in diesem Forum umgesehen, da ich meine neu gestalteten Seiten für die Suchmaschinen, hauptsächlich für google, optimieren muss.
Meine Vorgaben :
ich benutze Confixx 3.0 und habe auf einem web sechs Domains, die vom Namen her ähnlich sind, gleichzeitig eingerichtet. Teilweise sind die Unterschiede der Domainnamen marginal, mit Bindestrich und ohne, .de und .com oder.net, teilweise auch mit zwei Begriffen und Bindestrich.
Ich müsste also fünf Weiterleitungen 301 einrichten, dann auch noch fünf, dass die Aufrufe ohne www auf mit www weitergeleitet werden.
Ausserdem habe ich noch einige Seiten, die als Backlink erscheinen, aber durch Umstrukturierung der Verzeichnis- bzw. Dateinamen nicht mehr existieren, die ich auch gerne auf die neuen Ebenen weiterleiten möchte.
Welche Tipps würdet Ihr mir aufgrund der in diesem Thread angesprochenen GoogleBot Probleme geben.
301 redirects lieber lassen
Verfasst: 01.03.2006, 12:52
von AnjaK
so viele 301er in Folge sollten nur passieren, wenn man eine Bot-Trap macht, aber die sollte dann den Googlebot möglichst ausschließen

301 redirects lieber lassen
Verfasst: 01.03.2006, 13:03
von mcchaos
@gomopa: Du mußt halt versuchen, unter den 5 zu bleiben
Du richtest z.B. auf jeder "Nebendomain" 2 Weiterleitungen ein:
nebendomain.de ->
www.hauptdomain.de
www.nebendomain.de ->
www.hauptdomain.de
D.h. hier wären es schonmal immer nur eine Weiterleitung hintereinander (und nicht 5).
Wenn Du dann z.B. noch alte Seiten auf neue umleitest, bist Du immer noch bei 2 Weiterleitungen hintereinander (und immer noch lange nicht bei 5).
Re: 301 redirects lieber lassen
Verfasst: 01.03.2006, 13:05
von robbelsche
gomopa hat geschrieben:Welche Tipps würdet Ihr mir aufgrund der in diesem Thread angesprochenen GoogleBot Probleme geben.
@gomopa
Willkommen im Forum! Aufgrund der von Dir geschilderten Problematik würde ich Dir empfehlen, Dir mal den „Klassiker“
Standard-Domain definieren mit Apache (mod_rewrite) durchzulesen, der übrigens im Unterforum „Webcoding und -Programmierung“ auch ganz oben angepinnt ist...
