
Momentan meckert Google andauernd wegen der robots.txt das URLs blockiert
werden. Es sind über 3.039 Blockierte URLs, welche gar nicht Blockiert sein dürften.
Momentan sieht meine Sitemap wie folgt aus:
Code: Alles auswählen
User-Agent: *
Disallow: /
User-Agent: Googlebot
Disallow:
User-Agent: Googlebot-Image
Disallow:
User-agent: Mediapartners-Google*
Disallow:
User-Agent: Slurp
Allow: /
User-Agent: msnbot
Disallow:
Sitemap: http://giga-tags.com/sitemap.xml.gz
Code: Alles auswählen
User-Agent: Googlebot
Allow:
Was muss ich einfügen? :/