Seite 1 von 1

2 Fragen: Archivierte Beiträge und länge der Sitemap

Verfasst: 17.09.2008, 13:09
von Bahamut
Hallo

Ich nutze Joomla für mein Projekt bahamut-online.net.
Dort schreibe ich regelmäßig neue Beiträge, zum Beispiel im Bereich Binnenschifffahrt-Nachrichten und Wasserschutzpolizei. Das summiert sich natürlich mit der Zeit. Joomla bietet die Möglichkeit Beiträge zu archivieren. Nun frage ich mich aber ob das aus eurer SEO-Sicht eher kontraproduktiv ist oder nicht.

Ich für meinen Teil würde auf das Archivieren verzichten, wenn da nicht noch das Ding mit der Sitemap wäre. Die Ansicht und das Handling des Archivs für meine Besucher ist nicht gerade dolle.

Ist es richtig das Google Sitemaps mit mehr als 100 Einträgen nicht so gerne hat und es viel lieber sieht wenn diese gesplittet wird (wie immer das auch gehen soll mit aut. generierten)?

MfG

Verfasst:
von

Verfasst: 17.09.2008, 15:42
von luzie
1. sprichst du von html-sitemaps?

da kann es schon sein, dass eine unvernünftig hohe zahl von links pro seite (100 plus zum beispiel) dazu führt, dass google keine lust hat alle abzuspidern oder als solche zu werten.

2. oder von der sitemap nach dem sitemap-standard (sitemaps.org)?

glaub' da ist die grenze 50.000 URLs je sitemap, darüber ist eine sitemap der sitemaps anzulegen und darin die einzelneb sitemaps zu listen.

das archivieren alter beiträge würd' ich schon für sinnvol halten, warum sollte man inhalte verwerfen wenn man sie nun mal schon hat ...

Verfasst: 17.09.2008, 16:26
von Bahamut
Hallo

Nein, es ist keine HTML Sitemap sondern eine .xml Datei.
Diese wird von der Joomla Komponente XMAP automatisch generiert. Ob die nun dem sitemaps.org Standard entspricht kann ich dir nicht sagen.
das archivieren alter beiträge würd' ich schon für sinnvol halten, warum sollte man inhalte verwerfen wenn man sie nun mal schon hat ...
Wegwerfen würde ich die eh nicht. Aber ich hab die Wahl ob ich sie nun weiterhin als normalen Beitrag stehen lasse oder ins Archiv verschiebe. Google hat anscheinent kein Problem damit, gecrawlt werden die Seiten auch im Archiv. Ich frag mich halt nur was vorteilhafter ist bzw. ob es Nachteile hat Beiträge in einem Archiv zu horten.

Verfasst:
von

Verfasst: 17.09.2008, 18:29
von babez
lol... das ja mal nen Kracher bei deiner Seite...

Bahamut Online

Kein Zutritt für Chrome

Diese Website ist von ihren Betreibern für jegliche Betrachtung mit dem Google-Webbrowser »Chrome« explizit gesperrt worden. Google verfügt über die zurzeit größte Datensammlung über die Internet-Nutzung der Welt. Diese Datensammlung wird sich durch gezieltes Protokollieren Ihrer gesamten Netznutzung noch vergrößern, wenn Sie weiterhin diese als Browser getarnte Schnüffelsoftware verwenden. Ich betrachte es darüber hinaus als unverschämt, dass sich Google nicht im Datensammeln beschieden hat und sich auch noch mit einem dreisten Trick die Rechte an den Inhalten des Internet erschleichen wollte, ohne sich bislang bei den vielen Gestaltern des Internet auch nur für diesen Griff ins Klo zu entschuldigen. Die dumme Ausrede, dass es sich um ein Versehen mit dem Clipboard gehandelt haben solle, klänge vielleicht bei einer kleinen Klitsche glaubwürdig, nicht aber bei einer vor Juristen strotzenden Krake wie Google.
Bitte verwenden Sie in Zukunft den Browser eines Herstellers, der die Rechte der Gestalter des Internet ein wenig achtet und nicht jeden Tag durch seine Datensammelwut die Privatsphäre aller Menschen ignoriert. Vielen Dank!


habe gerade zum Testen einer eigenen Seite
IE7, FF2, Safari, Chrome, Opera 9 offen und einfach deine URL irgendwohin kopiert und musste echt lachen....

ich selber nutze sonst immer IE7 - denn "I love this Company"

Verfasst: 17.09.2008, 18:51
von babez
aber nun sehe ich nochmal mit FF nach....

netter Header, nette Strukturierung und was ich richtig gut finde - ist deine Seite "Über mich".

Ganz ehrlich das finde ich klasse!!!!!!!!!

Geil geschrieben, viele Infos.... respekt

für joomla und sitemap - nicht probiert aber von den Features klingt es klasse...

https://www.joomlaspan.com/general/the- ... erator.php

Features
It generates any kind of sitemap you require: XML, Text, HTML site maps.

It is developed in PHP languages and works with most web-server's configurations

Fast and easy installation onto the same host that should be crawled

Flexible configuration that allows you to set any sitemap parameters and crawler settings

Support of LARGE websites, dividing the sitemap on the parts per 50,000 URLs each and Sitemap Index file according to the Google sitemap protocol.
"robots.txt" exclusion protocol is supported

GZip compression supported (optional)

User-friendly progress indication for sitemap generation in manual mode

Allows to setup the cron job to create sitemaps without a user interaction

Informs (ping) Google automatically when sitemap generation is complete

Website structure analysis feature represents the tree-like layout of your pages distribution within folders

The script collects all generated sitemaps details and provides the log chanages in it, including the number (and the lists) of added and removed pages.

The broken links are detected by the application and reported on the special page, providing also the URLs pages that refer to these bad links.

Verfasst: 17.09.2008, 19:58
von Bahamut
und sich auch noch mit einem dreisten Trick die Rechte an den Inhalten des Internet erschleichen wollte
Der Hauptgrund warum Chrome draußen bleibt. Ich weis, das geht irgendwo nicht zusammen, immerhin nutze ich Google selber, aber alles hat seine Grenzen.

Was Du da für XMAP ausgebuddelt hat kannte ich gar nicht. Ich hab mir das auf deutschen DL Portalen geholt, dort sind die Infos weniger ausführlich. Ich lese daraus das es mit der Sitemap weiters keine Probleme geben sollte, die nächsten 10 Jahre bis ich die 50k Marke knacke :D
und was ich richtig gut finde - ist deine Seite "Über mich".

Ganz ehrlich das finde ich klasse!!!!!!!!!
Nu komm ich mir irgendwie nackich vor...

Verfasst: 18.09.2008, 18:22
von luzie
Bahamut hat geschrieben:Aber ich hab die Wahl ob ich sie nun weiterhin als normalen Beitrag stehen lasse oder ins Archiv verschiebe. Google hat anscheinent kein Problem damit, gecrawlt werden die Seiten auch im Archiv. Ich frag mich halt nur was vorteilhafter ist bzw. ob es Nachteile hat Beiträge in einem Archiv zu horten.
aha, na wenn google bisher keine probleme damit hatte, dann lass das archiv vielleicht vorerst bleiben:

1. "never change a running system"
(im gegensatz zu dir IST google 'konservativ', jede änderung KANN erstmal die systemimmanente paranoia der algos auf den plan rufen oder sonst unvorhergesehene effekte zeitigen.)

2. ich kenne jetzt die linkstruktur von joomla oder seiner varianten nicht so genau, aber "archiv" klingt eher nach "auch linkmässig nach hinten, in die tiefe, verschieben", das ist vielleicht auch nicht unbedingt das, was man gegenüber den suchmaschinen haben will?

Verfasst: 18.09.2008, 18:28
von luzie
ach ja, wenn deine sitemap eine .xml ist ist sie sicherlich eine nach sitemaps.org und du kannst glattweg 50.000 URLs auf eine davon draufpacken, was u.a. auch hier nachzulesen ist:

https://www.google.com/webmasters/tools ... tocol.html

Verfasst: 19.09.2008, 18:57
von Bahamut
Hallo

Dank dir für die Infos :)
jede änderung KANN erstmal die systemimmanente paranoia der algos auf den plan rufen oder sonst unvorhergesehene effekte zeitigen.)
DAS hab ich gemerkt.
Um mir das mit dem Archiv mal anzusehen habe ich einige ältere Beiträge ins Archiv verschoben und mich einige Tage anders entschieden. Seit dem bekomm ich in den Webmastertools lauter 404er angezeigt.

Ich denk ich lass erst mal die Finger davon.