Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Findalogic

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Handcreme
PostRank 2
PostRank 2
Beiträge: 62
Registriert: 21.12.2009, 14:25

Beitrag von Handcreme » 16.02.2011, 09:54

Hallo

in den FAQs von Findalogic wurde ich erst darauf gebracht: damit Google in der Suchfunktion im Shop nicht unnötig viele Anfragen verursacht (die ja zudem Geld kosten) und eigentlich nicht viel bringen, würde ich diese gerne für die Robots sperren.
Hat jemand eine Ahnung wie?

Die URL sieht so aus

/index.php?c1=&c2=&c3=&c4=&c5=&ActionCall=WebActionArticleSearch&Params[SearchParam]=such&Params[SearchInDescription]=1&x=0&y=0

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 16.02.2011, 10:27

Was ist findalogic? Egal...

Ganz einfach wäre es mit der robots.txt. Google beschreibt das recht ausführlich.

https://www.google.com/support/webmaste ... wer=156449

Dort den Bereich "Eine robots.txt-Datei manuell erstellen" öffnen.

Handcreme
PostRank 2
PostRank 2
Beiträge: 62
Registriert: 21.12.2009, 14:25

Beitrag von Handcreme » 16.02.2011, 10:54

Fidalogic ist eine Suche speziell für Shops!

Bin inzwischen etwa weiter, und hoffe jemand kann den versucht verifizieren, wenn ich dort folgendes zufüge:

User-agent: Googlebot
Disallow: /*WebActionArticleSearch

heißt ich sperre alles, was mit der Domain beginnt, gefolgt von einer beliebigen Zeichenfolge, dann der Zeichenkette WebActionArticleSearch und dann wieder einer beliebigen Zeichenfolge.

Wer kann das verifizieren ?

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 16.02.2011, 11:18

Du kannst das in den WMTs überprüfen.

User-agent: *
Disallow: /*WebActionArticleSearch

Handcreme
PostRank 2
PostRank 2
Beiträge: 62
Registriert: 21.12.2009, 14:25

Beitrag von Handcreme » 16.02.2011, 12:05

Danke für deine Hilfe,

muss ich gleich mal testen

Gruß

Handcreme
PostRank 2
PostRank 2
Beiträge: 62
Registriert: 21.12.2009, 14:25

Beitrag von Handcreme » 16.02.2011, 12:54

Irgendwie stehe ich auf dem Schlauch!

ich möchte es im WMTs überprüfen und bekomme jedes mal:

"Syntax wurde nicht verstanden"

aber ich weiß nicht woher der Syntax Fehler kommt :roll:



URLs Geben Sie die URLs und User-Agents für den Test an.



https://www.xxx.de/
User-agent: *
Disallow: /*WebActionArticleSearch

Testergebnis wie oben beschrieben :o

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 16.02.2011, 13:55

Du brauchst jetzt nicht den oben angegebenen String testen, wenn der einen Syntaxfehler auslöst, sondern nur ob Deine anderen Seiten mit oder ohne Query nicht beeinträchtigt werden. Wenn die robots.txt richtig ist, so findest Du später in der Übersicht unter Diagnose -> Crawling-Fehler die gesperrten Seiten aufgelistet. Die robots.txt ist aber richtig, falls da nicht bereits sich widersprechende Einträge vorhanden sind.

Antworten