Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Wer kennt einen guten Sitemap Generator??
Ein Spezialforum für alle SEO Tools und Suchmaschinenmarketing (SEM) Tools. Hier werden Fragen zur Interpretation der Daten, Funktionsweisen, Features und aktuelle Veränderungen der zahlreichen Tools diskutiert.
Ich suche ein zuverlässigen Sitemap generator.Am besten sollte er auf einem server laufen,dann geht das ganze schneller als wenn das Programm auf meinem heimischen rechner läuft.
Wer kann mir was empfehlen???
Ich habe schon bei xml-sitemap.com vorbeigeschaut.Das sieht zwar alles wunderbar aus aber nach einem Test hatte sich das schon erledigt.Dieser kann keine Umlaute bzw Sonderzeichen lesen.
Hab keine guten Erfahrungen mit dem
GSiteCrawler gemacht. Der Sitemap-Generator
von Google scheint mir zu kompliziert zu sein.
Bis mein Internetauftritt 500 Seiten umfaßte,
habe ich die xml Sitemaps immer online
unter www.xml-sitemaps.com erstellt und
zu Google upgeloadet. Neue Seiten waren
innerhalb von wenigen Stunden im Index.
Danach habe ich meine xml Sitemaps mit dem
GSiteCrawler erstellt - mit dem Resultat, dass
zwar bei Google die Anzahl der eingereichten
Seiten angezeigt wird, jedoch die neuen Seiten
nicht mehr in den Index aufgenommen werden,
seit Wochen nicht.
Kennt jemand eine Lösung, wie neue Seiten
wieder schnell in den Index gelangen?
Und ob es einen leicht zu bedienenden
Generator für xml Sitemaps (über 500 Seiten)
gibt?
Also ich finde den hier sehr gut https://www.auditmypc.com/xml-sitemap.asp . Nutze ihn auch bei Domänen mit mehr als 7000 Seiten und funktioniert fehlerfrei bei mir. Java wird allerdings benötigt.
Hab den sitemap generator von auditmypc jetzt getestet. ist sehr komfortabel, hat alles richtig gecrawlet, sitemap ist von google anerkannt worden. mal sehen, ob die neuen seiten auch schnell in den index gelangen...
Leider werden auch bei den durch auditmypc generierten Sitemaps keine neuen Seiten (bei über 500 Seiten) in den Google Index aufgenommen.
Ist es sinnvoll 2 oder mehrere kleinere Sitemap.xml Dateien bei Google einzureichen oder nur die neuen Seiten, damit sie endlich in den Index aufgenommen werden?
https://www.auditmypc.com/xml-sitemap.asp finde ich als Online Tool genial - auch mit mehreren taused Seiten kein Problem. Einzige Schwachstelle sind Umlaute, da tut sich der Ami schwer. Aber man kann seine Sitemaps als XML und HTML ausgeben.
phpSitemapNG - Noch genialer ist diese uralte PHP Software die ich gerne aufpeppen würde - aber ich kenne mich bei PHP zu wenig aus. Nimm phpSitemapNG 1.5.4b beta - die läuft einwandfrei. https://enarion.net/google/phpsitemapng/download/
Damit kann man Seiten, Ordner oder Parameter ausschliessen. Das Programm ist kinderleicht zu bedienen und erzeugt auch HMTRL-Sitemaps. Auf Wunsch erfolgt ein Upload per FTP und Google wird gepingt...nutze ich aber nicht.
@all - mit phpSitemapNG habt ihr aber ein Tool das Sitemaps in XML HTML TXT sowie als RSS erstellt. Und das macht die Software automatsich nach all den Include und Exclude Regeln die vorher eingestellt wurden. Danach werden sogar die großen 4 gepingt. Was will man mehr wenn man PHP installieren udn ausführen kann. Wenn man das nicht kann finde ich AuditMyPC noch am besten.
@Paraguay
Ich glaube Du hast da ein Problem mit dem Thema. Die Sitemaps sollen es nur erleichtern neue Unterseiten direkt zu finden. Das heißt aber nichts dass diese auch in den Index kommen!!! Also andere Faktoren wie Wichtigkeit, Thema und Backlinks zählen da auch. Eine Seite kommt nicht in den Index nur weil eine Sitemap da ist. Bei Google-Webmastertools kannst Du nachsehen wie viele Seiten Google aus den Sitemaps erkannt hat. Wenn sie ohne Fehler ist in der Regel alle. Aber angezeigt werden auch die die aufgenommen wurden, das sind bei mir im Durchschnitt 70%.
Also Du brauchst einen guten Sitemap-Ersteller und dann die weiteren Faktoren. Die Sitemap alleine reicht nicht.
@Ingo To-Bi-As - ich kann deine Meinung nicht so ganz teilen. Sitemaps machen die Crawlstruktur flacher und daher effizienter und schneller. Vor allem hat JEDE Seite dann zumindest 1 internen Backlink - schau mal in Webmaster Tools nach. LG, Michael