Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Gesperrte Seiten im Index

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
Gretus
PostRank 10
PostRank 10
Beiträge: 3205
Registriert: 15.07.2006, 11:49
Wohnort: Norden

Beitrag von Gretus » 19.06.2007, 22:09

Hallo,

seit Kurzem sind bei meiner Seite ganz hinten in der Siteabfrage auf einmal alle Einzelseiten `ohne Index drum herum´ gelistet. Die Seiten werden in der robots.txt durch Disallow: /beispiel.html gesperrt. Hat auch immer gut geklappt. Jetzt sind sie auf einmal im Index.

Ich habe kürzlich unten auf der Seite eine `Sofortklickfunktion :wink: ´ eingebaut. Könnte damit zusammen hängen, obwohl keine Seite so verlinkt ist. Laut Analytics sind die Seiten auch gesperrt. Soll ich einfach abwarten?

Grüße

Gretus
Zuletzt geändert von Gretus am 19.06.2007, 23:23, insgesamt 1-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Mamboo
PostRank 8
PostRank 8
Beiträge: 823
Registriert: 16.02.2006, 14:25

Beitrag von Mamboo » 19.06.2007, 22:28

Woran es liegt, kann ich dir auf Anhieb nicht sagen, aber wenn es sich nicht um mehrere Seiten handelt, kannst du sie auch unter googie webmastertools entfernen lassen. Das klappt gut. Zusätzlich kannst du in die Meta-Angaben noindex einbauen
{->} Meiner Favoriten für SEO-Massnahmen: {<-}
Webkatalog -> Web-Ranking Directory
Artikelverzeichnis -> OA-News & PR-Portal
Social News & Bookmark -> reddit.com: what's new online!

Gretus
PostRank 10
PostRank 10
Beiträge: 3205
Registriert: 15.07.2006, 11:49
Wohnort: Norden

Beitrag von Gretus » 19.06.2007, 23:39

Hallo,

vielen Dank. Ich werde noch mal einige Tage warten, und dann die Seiten zum Sperren einreichen. Ich habe nur immer Bammel, dass dann alle Seiten verschwinden...

Grüße

Gretus

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Mamboo
PostRank 8
PostRank 8
Beiträge: 823
Registriert: 16.02.2006, 14:25

Beitrag von Mamboo » 20.06.2007, 00:07

Unbedinngt beachten:

Wenn du unter Googie Webmastertools eine bestimmte Seite sperren lassen willst, achte darauf, das du kein Verzeichnis bzw. unterverzeichnis sperren lässt, sonnst sind alle Seiten in diesem Verzeichnis für die nächsten 6 Monate raus aus dem Index...

Ist mir mal passiert und das ist fast Tödlich ;)
{->} Meiner Favoriten für SEO-Massnahmen: {<-}
Webkatalog -> Web-Ranking Directory
Artikelverzeichnis -> OA-News & PR-Portal
Social News & Bookmark -> reddit.com: what's new online!

revilo
PostRank 1
PostRank 1
Beiträge: 25
Registriert: 24.05.2007, 16:10
Wohnort: Wien

Beitrag von revilo » 20.06.2007, 01:45

Hallo Gretus!
Gretus hat geschrieben:
Ich habe kürzlich unten auf der Seite eine `Sofortklickfunktion :wink: ´ eingebaut. Könnte damit zusammen hängen, obwohl keine Seite so verlinkt ist. Laut Analytics sind die Seiten auch gesperrt. Soll ich einfach abwarten?
Die Sache mit "...obwohl keine Seite so verlinkt ist." hab´ ich nicht verstanden. Wenn Du die Links der "MiniSiteMap" auf der index.html mit nofollow versiehst, sollte der Bot die Seiten nicht beachten. Mit noindex auf allen Einzelseiten, sollte dann auch tatsächlich keine (mehr) im SumaIndex landen. Sollten sich die Seiten auch noch gegenseitig verlinken, wäre das generelle nofollow für alle Files sicherheitshalber auch sinnvoll. Machst Du die einzelnen Seiten auch über die Navigationshilfe zugänglich? Ob der Redirect per 410er zielführend ist, und die Deindexierung beschleunigt, kann ich Dir nicht sagen.

LG O

PS Sollte ich da etwas falsch verstanden haben, sorry.

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 20.06.2007, 02:54

Hallo,

es ist leider so das der G bot sich seit ca. einer Woche
nicht immer an die Ausschlüsse der robot.txt hält. Die
Konkurenz von yahoo übrigens auch.

Mehr dazu gibt es hier:

https://www.spider-trap.de/forum/Allgemeines-1:0.html

Man soll die bots mit Namen Ansprechen nach folgendem
Schema:

User-agent: msnbot
Crawl-Delay: 20
Disallow: /mausefalle

User-agent: Slurp
Crawl-Delay: 20
Disallow: /mausefalle

User-agent: googlebot
Disallow: /mausefalle

User-agent: *
Disallow: /mausefalle

Mehr knpow how gibts hier:

https://www.spider-trap.de/forum/Allgemeines-1:0.html

Gruß

Micha
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

Gretus
PostRank 10
PostRank 10
Beiträge: 3205
Registriert: 15.07.2006, 11:49
Wohnort: Norden

Beitrag von Gretus » 20.06.2007, 05:39

Hallo,

muss ich für jeden Bot noch mal alle Seiten auflisten, oder kann man die drei Bots
auch unter User-agent nacheinander oder untereinander auflisten? Was ist besser?

Grüße

Gretus

Gretus
PostRank 10
PostRank 10
Beiträge: 3205
Registriert: 15.07.2006, 11:49
Wohnort: Norden

Beitrag von Gretus » 20.06.2007, 10:14

Hallo,

also so würde es gehen?
User-agent: googlebot
User-agent: msnbot
User-agent: Slurp
User-agent: *
Disallow: /beispiel.html
Disallow: /beispiel1.html
Disallow: /beispiel2.html
Disallow: /beispiel3.html
.
.
.
Grüße

Gretus

WilliWusel
PostRank 9
PostRank 9
Beiträge: 1257
Registriert: 21.08.2006, 14:55

Beitrag von WilliWusel » 20.06.2007, 10:36


Gretus
PostRank 10
PostRank 10
Beiträge: 3205
Registriert: 15.07.2006, 11:49
Wohnort: Norden

Beitrag von Gretus » 20.06.2007, 10:49

Hallo,

alles klar...

Grüße

Gretus

revilo
PostRank 1
PostRank 1
Beiträge: 25
Registriert: 24.05.2007, 16:10
Wohnort: Wien

Beitrag von revilo » 20.06.2007, 11:08

Hallo,

ich versuch´s noch einmal.

1. Seiten, die Du per korrekter robots.txt von der Indexierung ausgeschlossen hast, befinden sich, aus welchem Grund auch immer, im Index.

2. Du möchtest die Seiten entfernen und verhindern, dass sie auch in Zukunft nicht aufgenommen werden.

3. Mit dem 410er in der .htaccess signalisierst Du, dass die Seiten nicht (mehr) für den Bot bestimmt sind.

4. Mit den rel="nofollow" Links auf der index.html verhinderst Du, dass sie zukünftig überhaupt gefunden werden.

5. Mit dem noindex auf jeder gewünscht nicht aufzunehmenden Seite in den Metas, bleiben diese Seiten auf jeden Fall draussen.

6. Wenn sich die Einzelseiten gegenseitig verlinken und die Linkverfolgung auf diesen Seiten keine Bedeutung für den Bot haben soll, kann das noindex in den Metas um das nofollow erweitert werden.

LG O

Gretus
PostRank 10
PostRank 10
Beiträge: 3205
Registriert: 15.07.2006, 11:49
Wohnort: Norden

Beitrag von Gretus » 20.06.2007, 11:39

Hallo,

jepp, soweit verstanden. Ich versuche jetzt erst noch mal, den Googlebot in der robots.txt direkt anzusprechen. Mal schauen, was passiert. Werde berichten...
User-agent: googlebot
User-agent: msnbot
User-agent: Slurp

Disallow: /beispiel.html
Disallow: /beispiel.html
Disallow: /beispiel.html
Ist die Leezeile eigentlich korrekt?
Grüße

Gretus

WilliWusel
PostRank 9
PostRank 9
Beiträge: 1257
Registriert: 21.08.2006, 14:55

Beitrag von WilliWusel » 20.06.2007, 12:09

Gretus hat geschrieben:Ist die Leezeile eigentlich korrekt?
Nein! => https://de.selfhtml.org/diverses/robots.htm :wink: Die doppelte Wiederholung übrigens auch nicht... :roll:

JR-EWING
PostRank 9
PostRank 9
Beiträge: 1098
Registriert: 19.02.2004, 10:16
Wohnort: Untermeitingen

Beitrag von JR-EWING » 20.06.2007, 12:24

Ich würde es ohne Leerzeile machen - so ist es passend.
User-agent: googlebot
User-agent: msnbot
User-agent: Slurp
Disallow: /beispiel.html
Übrigends bevor wieder Fragen kommen - googlebot wird in der Spider Trap nicht ausgesperrt weil ein RDNS Check auf Google drin ist ;-)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag