Seite 1 von 1

Trotz sperre in der robots.txt tauchen Seiten auf...

Verfasst: 10.12.2006, 18:41
von Mika27
Hallo,

ich habe ein neues Projekt vor kurzem online gestellt und einige Seiten per robots.txt ausgeschlossen. Auf der Sitemap-Seite seht auch, dass Google diese Seiten nicht spidert. Jetzt sind aber doch einize davon im Index.

Hatte jemand schon mal sowas.

Und dann noch eine Frage:

Wenn ich die Überschrift meiner Domain eingebe erscheint diese ganz oben bei Google, wenn ich die URL eingebe erscheint diese erst auf dem 2 oder 3 Platz. Ist das normal? Die Domain ist noch sehr neu/frisch.

Gruß
Mika

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 10.12.2006, 19:25
von Hasenhuf
Was heißt, einige sind im Index, bei welcher Abfage? Das Seiten ohne Beschreibung nur mit URL bei der site:-Abfrage auftauchen ist normal.

Ja, es ist normal, daß man bei der Suche nach verschiednenen Begriffen auf verschiedenen Pos. steht.

Verfasst: 10.12.2006, 23:26
von Mika27
Wenn ich die site-Abfrage durchführe erscheinen die Seiten.


Wenn ich die URL der Seite eingebe, sollt diese nicht grundsätzlich auf Pos 1 stehen, sonst ist was faul, oder nicht?

Verfasst:
von
SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Verfasst: 10.12.2006, 23:46
von dersimli
soweit ich weiß, ist es besser, wenn du G**gle ansprichst (in der Robots.txt).

Du musst in deiner Robots.txt extra googlebot eingeben. So dürfte er es nicht nehmen. Es gab erst vor ein paar Tagen einen Thread mit dem selben Problem.

Verfasst: 11.12.2006, 00:49
von net(t)worker
auch wenn eine Seite in der robots.txt gesperrt ist, kann sie im Index bei der site-abfrage auftauchen, dann aber nur als url, kein Snippet und kein cache etc...

Google kennt die unterseite durch Links, weis aber nicht was da drauf ist, da sie ja nicht gespidert werden darf... also wird nur die url angezeigt, und auch nur bei der site: Abfrage...

Verfasst: 11.12.2006, 09:14
von Mika27
Achso, das haut hin, es ist tatsächlich bei den ausgesperrten Seiten nur die URL zu sehen.


Was ist mit dem anderen Punkt?

Wenn ich die URL der Seite eingebe, sollt diese nicht grundsätzlich auf Pos 1 stehen, sonst ist was faul, oder nicht?

Verfasst: 11.12.2006, 09:56
von Hasenhuf
Wenn die Seite mit diesem Suchbegriff nicht auf Pos. 1 ist, dann ist sie es eben nicht. Ob da was Faul ist? Wer hatte hier gleich noch mal eine Glaskugel?

PS: Mein Hauptkey entspricht nicht meiner domain, der Key kommt aber zusammengeschrieben drin vor. Suche ich nach key.de kommen Spamseiten, die mir bei der Suche nach Key (bei der ich auf Pos. 1 stehe und key.de weit abgeschlagen ist) noch nie untergekommen ist.

Verfasst: 11.12.2006, 14:38
von net(t)worker
Mika27 hat geschrieben:Achso, das haut hin, es ist tatsächlich bei den ausgesperrten Seiten nur die URL zu sehen.


Was ist mit dem anderen Punkt?

Wenn ich die URL der Seite eingebe, sollt diese nicht grundsätzlich auf Pos 1 stehen, sonst ist was faul, oder nicht?
das gilt bei der site: abfrage... wenn du site:domain.tld eingibst, sollte die startseite oben stehen, falls nicht ist wohl ein Filter aktiv...

in den serps selber kann eine andere seite wohl vor einem stehen, wenn die eigene seite recht schwach und die andere recht stark ist, gilt vor allem wenn die domain aus einem keyword-kombi besteht....

Verfasst: 11.12.2006, 15:34
von Mika27
Ach so, dann ist ja alles ok.

Vielen Dank! :wink: