Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Sitemap

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Itds-Online
PostRank 4
PostRank 4
Beiträge: 112
Registriert: 22.02.2006, 08:34

Beitrag von Itds-Online » 17.03.2009, 19:35

suche ein Programm womit ich ein bzw mehr Sitemap erstellen kann nur das Problem
Die Domain hat 7 MIO Seiten !

gibt es da was?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


JohnBi
PostRank 10
PostRank 10
Beiträge: 2957
Registriert: 22.02.2009, 20:31

Beitrag von JohnBi » 17.03.2009, 19:36

ja hier

https://gsitecrawler.com/de/

danach musste aber die Sitemap in mehrere aufteilen...
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! |
-------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}

MrTunes
PostRank 9
PostRank 9
Beiträge: 1128
Registriert: 01.05.2007, 20:25
Wohnort: Hier

Beitrag von MrTunes » 17.03.2009, 19:38

Auch mit ner Sitemap wird google den ganzen schrott nicht aufnehmen. Kannst mir nicht erzählen Du hast 7mio sinnvolle Seiten erstellt, die die Welt dringend braucht.
Mach ne Sitemap von den wichtigsten Seiten.

Ansonsten ist hier ne Lösung angebracht, die das aus der Datenbank generiert.

Itds-Online
PostRank 4
PostRank 4
Beiträge: 112
Registriert: 22.02.2006, 08:34

Beitrag von Itds-Online » 17.03.2009, 19:41

Das Programm habe ich wusste nicht das man es aufteilen kann ! Gibt es da eine Einstellung

Itds-Online
PostRank 4
PostRank 4
Beiträge: 112
Registriert: 22.02.2006, 08:34

Beitrag von Itds-Online » 17.03.2009, 19:42

7mio sinnvolle Seiten MrTunes also Spam ist es nicht wenn du das denkst

MrTunes
PostRank 9
PostRank 9
Beiträge: 1128
Registriert: 01.05.2007, 20:25
Wohnort: Hier

Beitrag von MrTunes » 17.03.2009, 19:47

7mio seiten mit nem sitemap generator der crawlt ist käse.
guck obs was für dien cms gibt oder machs selber.
Sinnlos bleibts trotzdem.

JohnBi
PostRank 10
PostRank 10
Beiträge: 2957
Registriert: 22.02.2009, 20:31

Beitrag von JohnBi » 17.03.2009, 19:53

Jo, ich sehe auch keinen Sinn darin 7 Mio. Seiten per Sitemap Google vorzusetzen.

Deswegen meinte ich ja - das aufteilen musste dann per Hand übernehmen, irgendwo habe ich mal gelesen wieviele Einträge für 1 Sitemap gut wären, ich glaube es waren 50.000 sind maximal erlaubt pro Sitemap.

Was mich interessiert ist wieviele von den 7 Mio. Seiten sind im Index?
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! |
-------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}

Itds-Online
PostRank 4
PostRank 4
Beiträge: 112
Registriert: 22.02.2006, 08:34

Beitrag von Itds-Online » 17.03.2009, 20:18

bei go: 2K
Bei yahoo: Pages (89,536)

catcat
PostRank 10
PostRank 10
Beiträge: 10292
Registriert: 02.08.2006, 13:21
Wohnort: Litauen

Beitrag von catcat » 17.03.2009, 20:21

das frisst der gsitecrawler nicht! no way! Soviel RAM hat Dein Rechner nicht. gSiteCrawler stopft erstmal alles in Deinen Arbeitsspeicher und dann - erst dann verarbeitet er es.

JohnBi
PostRank 10
PostRank 10
Beiträge: 2957
Registriert: 22.02.2009, 20:31

Beitrag von JohnBi » 17.03.2009, 20:24

Itds-Online hat geschrieben:bei go: 2K
um nur 2k von 7 Mio gelistet zu haben, da wird dir auch keine sitemap helfen, denn irgendwas stinkt Google an deinen 7 Mio Seiten.

Da kann es einige Sachen geben, entweder reicht die Power der Domain nicht aus um 7 Mio Seiten in den Index zu befördern, oder die Seiten sind sich alle so ähnlich das Google kein Bock hat den selben Schrott Mio-mal zu listen, oder deine interne Verlinkung ist so grottig das Google das nicht umsetzen kann usw. und so fort ...

Also anstatt zu versuchen ne Sitemap in 140 Sitemaps (7 Mio : 50K = 140) aufzuteilen und diese dann hochzuladen damit Google über alle 7 Mio Seiten bescheid weiss, würde ich mich mal daran machen das Hauptproblem zu beheben.
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! |
-------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}

MrTunes
PostRank 9
PostRank 9
Beiträge: 1128
Registriert: 01.05.2007, 20:25
Wohnort: Hier

Beitrag von MrTunes » 17.03.2009, 20:27

catcat hat geschrieben:das frisst der gsitecrawler nicht! no way! Soviel RAM hat Dein Rechner nicht. gSiteCrawler stopft erstmal alles in Deinen Arbeitsspeicher und dann - erst dann verarbeitet er es.
Also mein sitemap generator hatte mal 4mio wiki seiten indiziert. das waren 2gb im arbeitsspeicher. Allerdings inkl. Informationen die man für ne map nicht braucht. Machbar ist das schon, solange der Server 7mio Seiten hinterienander ausspuckt ohne zu mucken.
In der Zeit, die der Crawler zum Arbeiten brauhct, hat man aber mal eben 10Zeilen Skript geschrieben, der den krams aus der DB holt.

Muss aber nochmal betonen, dass ich das Vorhaben für Blödsinn halte.

JohnBi
PostRank 10
PostRank 10
Beiträge: 2957
Registriert: 22.02.2009, 20:31

Beitrag von JohnBi » 17.03.2009, 20:29

Er hat den Vorteil, das er 2K Seiten nichtmehr zu crawlen braucht :lol:
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! |
-------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}

bennos
PostRank 9
PostRank 9
Beiträge: 1299
Registriert: 16.12.2005, 11:51

Beitrag von bennos » 17.03.2009, 21:17

gsitecrawler kann das schon mit 7 mio sites.

musst du den MSSQL Server nutzen als DB.

Einen Code für die Masse an URL zu schreiben wird nicht einfach, zumindest wenn alles in einer Index Sitemap stehen soll.

Ich würde das eher pro Kategorie eine Sitemap erstellen.
Nicht zu vergessen ist das es beim externen crwaling mit dem GSitecrawler auch eine erhebliche Last gibt auf dem Server. Ich würde immer auf dem Server eine SItemap aus der DB erstellen.

Japs
Nutzer/in
Nutzer/in
Beiträge: 1685
Registriert: 18.10.2004, 10:50

Beitrag von Japs » 17.03.2009, 21:29

Braucht eine Webseite mit 7 Mio Unterseiten überhaupt eine Sitenmap?
Wenn die Seiten untereinander halbwegs sauber verlink sind - dann ist doch das ganze überflüssig oder ändert sich laufend soviel gravierendes, dass Google & Co es nicht von alleine findet ?

Gruß

Michi1
PostRank 5
PostRank 5
Beiträge: 275
Registriert: 02.12.2005, 10:34

Beitrag von Michi1 » 17.03.2009, 21:30

Hi,
vor kurzem hat mir jemand erzählt dass eine Sitemap max. 100 Seiten enthalten sollte, gem irgendwelcher Goo... Richtlinien?
Könnt Ihr das bestätigen?

Gruß
M

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag