Seite 1 von 1

Findalogic

Verfasst: 16.02.2011, 09:54
von Handcreme
Hallo

in den FAQs von Findalogic wurde ich erst darauf gebracht: damit Google in der Suchfunktion im Shop nicht unnötig viele Anfragen verursacht (die ja zudem Geld kosten) und eigentlich nicht viel bringen, würde ich diese gerne für die Robots sperren.
Hat jemand eine Ahnung wie?

Die URL sieht so aus

/index.php?c1=&c2=&c3=&c4=&c5=&ActionCall=WebActionArticleSearch&Params[SearchParam]=such&Params[SearchInDescription]=1&x=0&y=0

Verfasst:
von

Verfasst: 16.02.2011, 10:27
von SloMo
Was ist findalogic? Egal...

Ganz einfach wäre es mit der robots.txt. Google beschreibt das recht ausführlich.

https://www.google.com/support/webmaste ... wer=156449

Dort den Bereich "Eine robots.txt-Datei manuell erstellen" öffnen.

Verfasst: 16.02.2011, 10:54
von Handcreme
Fidalogic ist eine Suche speziell für Shops!

Bin inzwischen etwa weiter, und hoffe jemand kann den versucht verifizieren, wenn ich dort folgendes zufüge:

User-agent: Googlebot
Disallow: /*WebActionArticleSearch

heißt ich sperre alles, was mit der Domain beginnt, gefolgt von einer beliebigen Zeichenfolge, dann der Zeichenkette WebActionArticleSearch und dann wieder einer beliebigen Zeichenfolge.

Wer kann das verifizieren ?

Verfasst: 16.02.2011, 11:18
von Melegrian
Du kannst das in den WMTs überprüfen.

User-agent: *
Disallow: /*WebActionArticleSearch

Verfasst: 16.02.2011, 12:05
von Handcreme
Danke für deine Hilfe,

muss ich gleich mal testen

Gruß

Verfasst: 16.02.2011, 12:54
von Handcreme
Irgendwie stehe ich auf dem Schlauch!

ich möchte es im WMTs überprüfen und bekomme jedes mal:

"Syntax wurde nicht verstanden"

aber ich weiß nicht woher der Syntax Fehler kommt :roll:



URLs Geben Sie die URLs und User-Agents für den Test an.



https://www.xxx.de/
User-agent: *
Disallow: /*WebActionArticleSearch

Testergebnis wie oben beschrieben :o

Verfasst: 16.02.2011, 13:55
von Melegrian
Du brauchst jetzt nicht den oben angegebenen String testen, wenn der einen Syntaxfehler auslöst, sondern nur ob Deine anderen Seiten mit oder ohne Query nicht beeinträchtigt werden. Wenn die robots.txt richtig ist, so findest Du später in der Übersicht unter Diagnose -> Crawling-Fehler die gesperrten Seiten aufgelistet. Die robots.txt ist aber richtig, falls da nicht bereits sich widersprechende Einträge vorhanden sind.