Seite 1 von 1
Findalogic
Verfasst: 16.02.2011, 09:54
von Handcreme
Hallo
in den FAQs von Findalogic wurde ich erst darauf gebracht: damit Google in der Suchfunktion im Shop nicht unnötig viele Anfragen verursacht (die ja zudem Geld kosten) und eigentlich nicht viel bringen, würde ich diese gerne für die Robots sperren.
Hat jemand eine Ahnung wie?
Die URL sieht so aus
/index.php?c1=&c2=&c3=&c4=&c5=&ActionCall=WebActionArticleSearch&Params[SearchParam]=such&Params[SearchInDescription]=1&x=0&y=0
Verfasst: 16.02.2011, 10:27
von SloMo
Was ist findalogic? Egal...
Ganz einfach wäre es mit der robots.txt. Google beschreibt das recht ausführlich.
https://www.google.com/support/webmaste ... wer=156449
Dort den Bereich "Eine robots.txt-Datei manuell erstellen" öffnen.
Verfasst: 16.02.2011, 10:54
von Handcreme
Fidalogic ist eine Suche speziell für Shops!
Bin inzwischen etwa weiter, und hoffe jemand kann den versucht verifizieren, wenn ich dort folgendes zufüge:
User-agent: Googlebot
Disallow: /*WebActionArticleSearch
heißt ich sperre alles, was mit der Domain beginnt, gefolgt von einer beliebigen Zeichenfolge, dann der Zeichenkette WebActionArticleSearch und dann wieder einer beliebigen Zeichenfolge.
Wer kann das verifizieren ?
Verfasst: 16.02.2011, 11:18
von Melegrian
Du kannst das in den WMTs überprüfen.
User-agent: *
Disallow: /*WebActionArticleSearch
Verfasst: 16.02.2011, 12:05
von Handcreme
Danke für deine Hilfe,
muss ich gleich mal testen
Gruß
Verfasst: 16.02.2011, 12:54
von Handcreme
Irgendwie stehe ich auf dem Schlauch!
ich möchte es im WMTs überprüfen und bekomme jedes mal:
"Syntax wurde nicht verstanden"
aber ich weiß nicht woher der Syntax Fehler kommt
URLs Geben Sie die URLs und User-Agents für den Test an.
https://www.xxx.de/
User-agent: *
Disallow: /*WebActionArticleSearch
Testergebnis wie oben beschrieben

Verfasst: 16.02.2011, 13:55
von Melegrian
Du brauchst jetzt nicht den oben angegebenen String testen, wenn der einen Syntaxfehler auslöst, sondern nur ob Deine anderen Seiten mit oder ohne Query nicht beeinträchtigt werden. Wenn die robots.txt richtig ist, so findest Du später in der Übersicht unter Diagnose -> Crawling-Fehler die gesperrten Seiten aufgelistet. Die robots.txt ist aber richtig, falls da nicht bereits sich widersprechende Einträge vorhanden sind.