Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Zeit bis zum Deep Crawl?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
aldorado
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 21.11.2005, 20:27

Beitrag von aldorado » 21.11.2005, 20:32

Hallo ihr lieben,

ich habe eine neue .com Domain mit ca. 500 content seiten.
Die Domain besteht jetzt bereits schon 2 Monate und wurde auch vor ca. 1,5 Monaten bei g**gle angemeldet.

Leider sind im Moment nur ca. 20 der Seiten bei g**gle drinne.
Links sind alle in Ordnung und wurden geprüft. Die Seite ist technisch einwandfrei.

Nun meine Frage. Wie lange kann es denn unter Umständen dauern bis
g**gle einen deep crawl durchführt?

Noch eine Frage. Kann man irgendwibei g**gle abfragen, wie lange eine Seite bereits im index ist?

Grüsse
aldorado

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Red Bull
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 03.11.2005, 09:45
Wohnort: Mannheim

Beitrag von Red Bull » 21.11.2005, 20:41

Links sind alle in Ordnung und wurden geprüft. Die Seite ist technisch einwandfrei.
Dann ist doch alles bestens und Google wird die anderen Seiten auch irgendwann erfassen.
Noch eine Frage. Kann man irgendwibei g**gle abfragen, wie lange eine Seite bereits im index ist?

zottel
PostRank 5
PostRank 5
Beiträge: 274
Registriert: 10.11.2005, 13:02
Wohnort: Berlin

Beitrag von zottel » 21.11.2005, 23:29


Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Red Bull
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 03.11.2005, 09:45
Wohnort: Mannheim

Beitrag von Red Bull » 22.11.2005, 02:39

@zottel
aldorado hatte nach dem deep crawl gefragt, die URL ist ja schon erfasst.

Guts Nächtle...gäääähn....

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 22.11.2005, 05:46

@Aldorado:

Zum einen ist da die Linktiefe entscheidend: d.h.: wieviele Linkschritte muss Google gehen, um auf einer Unter-Contentseite zu landen? Von wie vielen Seiten wird diese Unterseite intern verlinkt?

Und dann: wer (und wieviele) Seiten linken auf Dich? Gehen diese Links nur auf die Startseite oder auch auf Unterseiten, von denen aus Google dann weiter Deine Seite "erforschen" kann?

Bei Beantwortung und positiver Lösung dieser Fragen klappt es bald auch mit einem "Deep-Crawl".

aldorado
PostRank 1
PostRank 1
Beiträge: 3
Registriert: 21.11.2005, 20:27

Beitrag von aldorado » 22.11.2005, 12:11

chris21 hat geschrieben:@Aldorado:

Zum einen ist da die Linktiefe entscheidend: d.h.: wieviele Linkschritte muss Google gehen, um auf einer Unter-Contentseite zu landen?
Die gewünschten Seiten liegen alle im root. https://www.domain.com/hier.htm
Von wie vielen Seiten wird diese Unterseite intern verlinkt?
Könnte besser sein. Es zeigen vielleicht 1-2 Seiten immer auf eine.
Sollte ich dies erhöhen? Wieviel intern verlinken schadet?
Und dann: wer (und wieviele) Seiten linken auf Dich? Gehen diese Links nur auf die Startseite oder auch auf Unterseiten, von denen aus Google dann weiter Deine Seite "erforschen" kann?
Die Domain(Startseite) hat einen 4er PR. Externe Links zeilen alle auf die Startseite ja. Eventuell auch etwas dran ändern?

Red Bull
PostRank 7
PostRank 7
Beiträge: 543
Registriert: 03.11.2005, 09:45
Wohnort: Mannheim

Beitrag von Red Bull » 22.11.2005, 13:27

Wieviel intern verlinken schadet?
Hängt von der Seitenzahl ab. Wenn 15 Seiten miteinander verlinkt sind spielt es keine Rolle. Hast Du 1000 Seiten solltest Du in Ebenen unterteilen.
Davon unabhängig lasse ich z.B. immer alle Seiten auf die Startseite und gegebenfalls noch auf 2-4 andere wichtige Oberrubriken verweisen, damit diese stärker gerankt werden.

Edit:
Auf jeden Fall muss die intere Linkzahl erhöht werden. 2-3 sind viel zuwenig.
Im übrigen kannst Du bessere Tipps bekommen, wenn man weiß um welche Seite es sich handelt.
Zuletzt geändert von Red Bull am 22.11.2005, 13:32, insgesamt 1-mal geändert.

mic_jan
PostRank 6
PostRank 6
Beiträge: 397
Registriert: 31.08.2004, 16:24

Beitrag von mic_jan » 22.11.2005, 13:30

Ich schätze einfach mal, es fehlt an der Menge der Backlinks. Ich habe gerade bei einer Forenumstellung mitgemacht. Nach ca einer Woche sind jetzt fast 1.000 von den neuen Seiten im Index.

Gruss

Michael

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 22.11.2005, 22:18

Aldorado hat geschrieben: Die gewünschten Seiten liegen alle im root. https://www.domain.com/hier.htm
Das ist nicht entscheidend. Die Seiten könnten auch in domain.tld./verzeichnis/verzeichnis/verzeichnis/datei.htm liegen. Macht keinen Unterschied.

Wichtig sind die Linkschritte --> d.h. Bot kommt auf die Startseite, dann folgt er einem Link, landet auf einer Unterseite (1. Ebene), auf dieser Unterseite folgt er wieder einem Link (2. Ebene), usw. -> es dürfen nicht zu viele Ebenen auf der Linkschrittseite existieren.

Da kann eine Sitemap helfen - von der Startseite (und allen Unterseiten) verlinkt, auf der dann alle Unterseiten verlinkt sind.

Zudem: umsomehr Links auf eine Seite (und eine Unterseite) verlinken, umsoeher wird der Bot allen Links auf dieser Seite folgen und somit irgendwann alles aufnehmen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag