Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wie oft Google-Sitemaps aktualisieren?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 11.04.2006, 11:27

Hallole,

habe gerade für mein Forum mal eine Google-Sitemap per Skript erzeugt (PHP), die ist somit immer automatisch aktuell, da das Skript bei Aufruf eine aktuelle Sitemap erszeugt. Soweit so gut...

Holt Google sich selsbständig die Sitemap (angemeldet hab ich sie, wurde auch das erste mal abgeholt) in regelmäßigen Abständen, oder muss ich die wiederholt übermitteln?

Wenn das manuell gschehen muss, wie oft macht das Sinn? (Änderungen erfolgen ja quasi laufend in einem Forum)

Danke für die Antworten - falls das Thema schon durchgekaut wurde: sorry hab gesucht, aber auf diese Frage keine Antwort gefunden....

Grüsse :D

Anzeige von ABAKUS

von Anzeige von ABAKUS »

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 11.04.2006, 11:32

ich habe sie erstellt, angemeldet und aus ,
seither tut sie ihre Dienst, der googlebot mag sie und weiter mache ich gar nichts mehr,

lg

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 11.04.2006, 12:20

Danke für die Antwort - so machts ja eigentlich auch (nur) Sinn für dynamische Inhalte...

LG :D

Krany
PostRank 2
PostRank 2
Beiträge: 47
Registriert: 28.12.2005, 13:44

Beitrag von Krany » 11.04.2006, 13:17

Hallo Gurgelboot!
Mit welchem Skript hast Du das denn gemacht?

Danke und Gruß,
Krany

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 11.04.2006, 14:25

Ich habe dieses Skript hier:

www.superphotos.info/forum/viewtopic.php?t=128

genommen und für meine Belange angepasst (habe mod_rewrite im Einsatz, daher mussten die ausgegebenen URLs angepasst werden, ausserdem wird hier die Priorität nach einem Algo berechnet - das habe ich statisch gemacht)

Ist für Foren auf phpBB-Basis...

Grüsse :D

Windy
PostRank 4
PostRank 4
Beiträge: 129
Registriert: 26.12.2005, 13:07

Beitrag von Windy » 11.04.2006, 16:27

Ich hab was für ein Wbb was immer aktuelle Sitemaps macht. Per mod_rewrite als xml.gz augegeben. Und Google holt die immer einmal am Tag, oder alle 2 Tage ab und sagt die ist ok.

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 11.04.2006, 22:49

Ja, das mit mod_rewrite als *.xml ausgeben mache ich auch...

Obwohl Google auch eine *.php als Sitemap frisst, solange die Syntax stimmt...

Grüsse :D

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 11.04.2006, 23:31

Ich benutzt das Phyton tool von google.
Sehr geil das ließt auch die Logfiles aus und vergibt damit die priorität, was die meisten anderen Tools nicht tun oder nur auf default werte setzen. Da ich fast jeden tag was an der site mache bzw. sich die Logs anpassen, lasse ich das jede nacht als cron laufen und gib google danach nen ping er kann sich die neue GZ datei abholen.

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 11.04.2006, 23:58

axelm hat geschrieben:...und gib google danach nen ping er kann sich die neue GZ datei abholen.
Wie macht man das?

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 13.12.2006, 19:13

Ja ich nutze das Python Skript, wenn die Logs halt zu groß sind mußt du halt die alten wegschreiben bzw. halt nur für 1 Tag parsen lassen.
Axel der Autoschieber
<br><br>snippetoptimizer.de Snippet optimieren
<br><br>Css Cruncher Ladezeiten optimieren.
<br><br>Webmaster Tools

ratze
PostRank 1
PostRank 1
Beiträge: 10
Registriert: 03.11.2005, 09:59

Beitrag von ratze » 13.12.2006, 21:37

moin,
wenn die Datei zu groß wird, solltest Du splitten. Limit liegt bei ~10MB.
Und wenn es den Server killt, sollte man die Daten direkt aus der DB erzeugen und einen Cache benutzen. ;)

Die G-Sitemap gibt es hier.
https://www.google.com/schemas/sitemap/0.84
Das neue Layout für MSN, Yahoo und G hier.
https://www.sitemaps.org/
G kann man mit www.google.com/webmasters/sitemaps/ping?sitemap=+URI
anpingen.


mfg Jens

Downer
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 11.01.2003, 03:23

Beitrag von Downer » 14.12.2006, 11:27

Ich habe auch ein großes phpBB. Wäre vll jemand so nett und könnte eine anleitung zur Einstellung des Phyton-Scrits machen?

axelm
PostRank 7
PostRank 7
Beiträge: 603
Registriert: 18.10.2004, 11:42

Beitrag von axelm » 05.12.2008, 15:48

@ratze, diese Tools setzen aber keine Priority in der Sitemap oder ? Also nicht eine die ich per Hand angebe, sondern eine die sich wirklich an die Zugriffen der Einzelnen Datei ausrichtet.
Axel der Autoschieber
<br><br>snippetoptimizer.de Snippet optimieren
<br><br>Css Cruncher Ladezeiten optimieren.
<br><br>Webmaster Tools

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag