Seite 1 von 1
URL durch "robots.txt" eingeschränkt?
Verfasst: 26.08.2007, 13:00
von wowglider
Code: Alles auswählen
http://forum.wowglider.de/forum,30,-utilities-(member).html URL durch "robots.txt" eingeschränkt [?] 21.08.2007
http://forum.wowglider.de/forum,58,-videos-(member).html URL durch "robots.txt" eingeschränkt [?]
http://forum.wowglider.de/ptopic,10287.html URL durch "robots.txt" eingeschränkt [?] 13.08.2007
http://forum.wowglider.de/ptopic,11064.html URL durch "robots.txt" eingeschränkt [?] 16.08.2007
http://forum.wowglider.de/ptopic,15637.html URL durch "robots.txt" eingeschränkt [?] 23.08.2007
http://forum.wowglider.de/ptopic,3621.html URL durch "robots.txt" eingeschränkt [?] 14.08.2007
http://forum.wowglider.de/topic,1118,-keymaker-prog.html URL durch "robots.txt" eingeschränkt [?] 16.08.2007
http://forum.wowglider.de/topic,1666,-neuer-lootfilter-nach-patch.html URL durch "robots.txt" eingeschränkt [?] 16.08.2007
http://forum.wowglider.de/topic,1821,-lootfilter-18-vom-2007-06-12.html URL durch "robots.txt" eingeschränkt [?] 21.08.2007
http://forum.wowglider.de/topic,1843,-...haltet-ihr-von-einer-verguetung%3F.html URL durch "robots.txt" eingeschränkt [?] 16.08.2007
http://forum.wowglider.de/topic,1890,-member---non-member.html URL durch "robots.txt" eingeschränkt [?] 23.08.2007
http://forum.wowglider.de/topic,1945,-neuer-bereich:-erfahrungen.html URL durch "robots.txt" eingeschränkt [?] 13.08.2007
http://forum.wowglider.de/topic,2085,-wie-kann-ich-lootfilter-einstellen.html URL durch "robots.txt" eingeschränkt [?] 16.08.2007
http://forum.wowglider.de/topic,2206,-...-kostet-wow-glider-29,99%80-*zitat.html URL durch "robots.txt" eingeschränkt [?] 22.08.2007
usw (ca 200)
hier die robots
https://forum.wowglider.de/robots.txt
Wo liegt das Problem? verstehs nicht, webmastertools zeigt ca 2000 gesperrte URL's (davon sind ca 1800 richtig, zb dc usw) aber 200 (so wie oben) sind falsch, hab ich bei der robots.txt was falsch gemacht? kann man eigentlich auch bestimmte urls explizit erlauben?
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
Verfasst: 26.08.2007, 19:24
von wowglider
hat einer eine idee was an der robots.txt falsch ist?
Verfasst: 26.08.2007, 19:34
von NaNoNaNed
Erst einmal die Frage: Warum willst du so viele URLs sperren?
Es könnte natürlich sein dass eine der gesperrten Dateien nicht gesperrt werden sollte.
lg
Roman
Verfasst: 26.08.2007, 19:42
von Fox Mulder
NaNoNaNed hat geschrieben:Erst einmal die Frage: Warum willst du so viele URLs sperren?
Will er ja nicht, deshalb seine Frage.
Verfasst: 26.08.2007, 20:26
von NaNoNaNed
Naja, dann recht einfache Lösung:
Lösche deine robots.txt

Verfasst: 27.08.2007, 09:11
von pr_sniper
Quatsch, robots.txt gehört zu jeder Website.
Aber die fehlende Übersicht hat Schuld: z.B. die URL "
https://forum.wowglider.de/topic,2085,- ... ellen.html" wird weitergeleitet auf "
https://forum.wowglider.de/login.php?re ... dd1d123d8c" und ist natürlich durch die robots.txt (Disallow: /login.php) von einer Indizierung ausgeschlossen ...
Alle für eine Indizierung gewünschten Seiten sollten nicht nur in der Sitemap oder irgendwo als Link aufgeführt, sondern vor allem für <b>jedermann</b> (z.B. auch Googlebot) erreichbar sein.
robots.txt erlaubt nichts, sondern kann nur
bitten bzw. empehlen, etwas nicht aufzunehmen. Absolute Sicherungen sind anders, z.B. mittels .htaccess zu realisieren.
Verfasst: 27.08.2007, 16:16
von wowglider
pr_sniper hat geschrieben:Quatsch, robots.txt gehört zu jeder Website.
Aber die fehlende Übersicht hat Schuld: z.B. die URL "
https://forum.wowglider.de/topic,2085,- ... ellen.html" wird weitergeleitet auf "
https://forum.wowglider.de/login.php?re ... dd1d123d8c" und ist natürlich durch die robots.txt (Disallow: /login.php) von einer Indizierung ausgeschlossen ...
Alle für eine Indizierung gewünschten Seiten sollten nicht nur in der Sitemap oder irgendwo als Link aufgeführt, sondern vor allem für <b>jedermann</b> (z.B. auch Googlebot) erreichbar sein.
robots.txt erlaubt nichts, sondern kann nur
bitten bzw. empehlen, etwas nicht aufzunehmen. Absolute Sicherungen sind anders, z.B. mittels .htaccess zu realisieren.
Das weiß ich ja alles, trotzdem danke, ähm diese Weiterleitung hat mich grad mal geschockt... hab nicht viel Ahnung von der PHPBB2, jmd der zufällig weiß was das hervorruft?
und zum thema wieso ich "soviele" sperren möchte, wie oben steht da sonst DC der fall ist...
Verfasst: 28.08.2007, 08:25
von pr_sniper

"Das weiß ich ja alles, ..." - Schlaumeier, weshalb dann die Frage? Lösungen wären deshalb vermutlich ebenfalls bekannt.
Verfasst: 29.08.2007, 21:21
von wowglider
pr_sniper hat geschrieben:
"Das weiß ich ja alles, ..." - Schlaumeier, weshalb dann die Frage? Lösungen wären deshalb vermutlich ebenfalls bekannt.
hab grad son einen hals

was soll dieser Post?
Wenn du keine Ahnung hast, dann Antworte halt nicht, aber jedesmal gibts ein paar Leute die einfach mal Ihren dünn

loswerden wollen...