Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google Sitemaps

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 03.06.2005, 07:15

Das klingt interessant, wer es ausprobiert sollte es uns wissen lassen wie gut das funktioniert...

https://www.google.com/webmasters/sitemaps/login

mfg
viggen

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Jansen
PostRank 3
PostRank 3
Beiträge: 72
Registriert: 02.12.2004, 11:33
Wohnort: Pinneberg

Beitrag von Jansen » 03.06.2005, 08:30

Ich bin dabei - hab' gerade eine Sitemap mit ca. 1.500 Unterseiten angemeldet und bin sehr gespannt, ob/wann/was passiert...

Grüße,
Jan

P.S.: Werde natürlich berichten!

Mario670
PostRank 9
PostRank 9
Beiträge: 1006
Registriert: 30.04.2004, 20:46
Wohnort: Neu Duvenstedt

Beitrag von Mario670 » 03.06.2005, 09:00

Was soll das denn, wird den der Index zu dünn weil so viele Seiten kicken? Oder hoffen die das sich dort Spammer einloggen und Ihre Sitemaps dort hochjagen?

Sorry aber dem Teil trau ich mal wieder erstmal garnicht, da warte ich doch mal wie gewohnt erstmal ab.

@Viggen: Danke für die Info!
Bild
SEOigg ... SEO News satt

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

lomo
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 05.08.2004, 13:01

Beitrag von lomo » 03.06.2005, 09:02

dürfte eine Google'sche SEO-Falle sein. Klevere Bürschchen.

marcell
PostRank 3
PostRank 3
Beiträge: 67
Registriert: 01.01.2004, 12:25

Beitrag von marcell » 03.06.2005, 09:07

Hallo

Gibt es dazu auch ein deutsches Script? Um das Script das Google angibt ausführen zu können braucht man ja Python :(

Grüße

Marcell

lomo
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 05.08.2004, 13:01

Beitrag von lomo » 03.06.2005, 09:14

marcell hat geschrieben:Gibt es dazu auch ein deutsches Script? Um das Script das Google angibt ausführen zu können braucht man ja Python :(
Gibt es wirklich eine Programmiersprache, welche sich der deutschen Grammatik bedient (mit Konjuktiv 2 und so)? :D

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 03.06.2005, 09:20

Ich frage mich warum sie es so kompliziert machen. Das könnte man prima über Metatags lösen. "Revisit" und "Date" gibt es ja schon. Fehlt eigentlich nur die "Priority". Das Ganze wirkt irgendwie unausgegoren.

lomo
PostRank 6
PostRank 6
Beiträge: 346
Registriert: 05.08.2004, 13:01

Beitrag von lomo » 03.06.2005, 09:34

SloMo hat geschrieben:Ich frage mich warum sie es so kompliziert machen...
Damit sie den Zulauf von einer ganz bestimmten Klientel haben und noch einen "SEO-sensitiven" Baustein in deren Algo einbauen können.

MikeD
PostRank 4
PostRank 4
Beiträge: 108
Registriert: 12.08.2004, 22:32
Wohnort: Idar-Oberstein

Beitrag von MikeD » 03.06.2005, 09:55

Mal den 'Verfolgungswahn' ausgefiltert ;) :

Was würde es technisch für Google bringen:

1. Jene URL's die mit XML-Sitemap versehen sind kann man anhand der Daten dieser einen Datei über sheduler Anweisungen im index aktualisieren (und zwar nur die, die sich tatsächlich geändert haben) -
Eine Datei anstatt ggf. 1.500 Anfragen ala: huhu bischt du neu
Und für jene die einfach mal behaupten: hier ist alles neu - da wird es wohl schon eine Überprüfung geben

2. Eine Linkverfolgung im Netz würde dann wohl mit einer weiteren Regel versehen:
Wenn der die URL des Links von Seite Y im Sitemap-Datenbestand existiert :
setze BL Count + 1 Regel UND kümmer dich um den Rest von Seite Y

3. Sitemaps gabs ja schon - nur nicht mit klaren Regeln und durch HTML-Dschungel halt mit Zeitfaktor +X auszuwerten - Weshalb also nicht den Zeitfaktor verkürzen durch klare Regeln ?
Es gibt halt XML - weshalb also nicht nutzen. News-Feeds werden ja auch genutzt anstatt seine News in individuelle HTML Seiten zu packen und für jede Seite einen eigenen Parser zu schreiben

Vorteil für die Seitenbetreiber dürfte wohl ein verkürzter Deepcrawl sein und keine zwingende Rankingverbesserung. Dateiaktualisierungen dürften schneller erkannt und gelistet werden. Wenn Google eine URL als XML-Sitemap-URL gekennzeichnet hat, dürfte sich mit dem Tool auch das Listen von toten Seiten erübrigen (nicht in der Sitemap : index Bereinigung)

Also ich würde sagen: Die Sache positiv sehen - so eine XML Datei läßt sich relativ schnell per PHP aufbauen und bei großen Projekten arbeitet man halt mit einer Cache-Variante die eine gewisse Zeit lebt oder über Cron neu geschrieben wird.

Mal auf das Ergebnis von Jan gespannt bin

@Jan - wie groß ist denn das Testprojekt - und sind in dem XML-File jetzt Seiten gelistet die vorher noch nicht im index waren ?

MikeD
PostRank 4
PostRank 4
Beiträge: 108
Registriert: 12.08.2004, 22:32
Wohnort: Idar-Oberstein

Beitrag von MikeD » 03.06.2005, 10:15

Die haben sich ja nen Wolf geschrieben :)

Nachtrag:
https://www.google.com/webmasters/sitem ... aq.html#s8

RSS 2.0 und Atom 0.3 Formate werden auch ausgelesen :) (auch reine txt's .. aber die wollen sie nisch unbedingt ;) )

stalker
PostRank 6
PostRank 6
Beiträge: 400
Registriert: 29.01.2004, 18:00

Beitrag von stalker » 03.06.2005, 10:24

ich finde die idee von google gut, warte aber auch erstmal die ersten testberichte ab

Jansen
PostRank 3
PostRank 3
Beiträge: 72
Registriert: 02.12.2004, 11:33
Wohnort: Pinneberg

Beitrag von Jansen » 03.06.2005, 10:30

@MikeD:
Das Projekt hat insgesamt ca. 3.000 Seiten und ich habe, wie oben geschrieben, ca. 1.500 Unterseiten in der Sitemap, von denen etwa die Hälfte indiziert ist. Die einzelnen Seiten sind ohne "lastmod"-Tag, folglich als 'neu' markiert.

Mal schauen:
1. Werden alle Seiten aus der Sitemap gespidert?
2. Werden nur die Seiten gespidert, die noch nicht im Index sind?
3. Werden die Seiten, die nicht in der Sitemap sind, aus dem Index entfernt?
Wobei ich mir Punkt 3 nicht vorstellen kann.

Jedenfalls denke ich, daß dies für den Anfang kein sooo schlechtes Szenario ist...

Grüße,
Jan

MikeD
PostRank 4
PostRank 4
Beiträge: 108
Registriert: 12.08.2004, 22:32
Wohnort: Idar-Oberstein

Beitrag von MikeD » 03.06.2005, 10:37

@Jan

gerade Punkt 3 dürfte interessant sein - allerdings würde ich da noch etwas vorbereitend ändern:

um zu wissen ob die Entfernung REIN aus der Sitemap resultiert oder in KOMBINATION mit 404 geschieht (also Kontrolle anhand : index-alt gegen sitemap und index-neu) würde ich ggf. ein paar seiten umbenennen (wenns nicht tragisch ist ;) ) um da einen genaueren Anhaltspunkt zu bekommen.

Hab da noch ein Projekt das ich ggf. mit dieser Konstelation mal testen könnte, da dort tatsächlich Artikel ersatzlos entfernt werden... mal schauen ob ich übers WE noch dazu komme und ob die relevanten Artikel die ich dann entfernen will auch im bisherigen index sind.

Jansen
PostRank 3
PostRank 3
Beiträge: 72
Registriert: 02.12.2004, 11:33
Wohnort: Pinneberg

Beitrag von Jansen » 03.06.2005, 10:49

@MikeD:
um zu wissen ob die Entfernung REIN aus der Sitemap resultiert oder in KOMBINATION mit 404 geschieht (also Kontrolle anhand : index-alt gegen sitemap und index-neu) würde ich ggf. ein paar seiten umbenennen (wenns nicht tragisch ist icon_wink.gif ) um da einen genaueren Anhaltspunkt zu bekommen.
Hast Du natürlich grundsätzlich Recht. Ich werde aber aus purer Faulheit die Site nicht umbauen, denn:
Wenn eine Löschung in 404-Kombination erfolgen sollte, muss Google mindestens eine HEAD-Abfrage auf die bereits indizierten Seiten absetzen - und das steht hinterher im Logfile. :wink:

Grüße,
Jan

MikeD
PostRank 4
PostRank 4
Beiträge: 108
Registriert: 12.08.2004, 22:32
Wohnort: Idar-Oberstein

Beitrag von MikeD » 03.06.2005, 13:42

Jansen hat geschrieben: Hast Du natürlich grundsätzlich Recht. Ich werde aber aus purer Faulheit die Site nicht umbauen, denn:
Wenn eine Löschung in 404-Kombination erfolgen sollte, muss Google mindestens eine HEAD-Abfrage auf die bereits indizierten Seiten absetzen - und das steht hinterher im Logfile.
ok :) geb dir da uneingeschränkt Recht :)

Hab auch mal besagtes Projekt eingereicht - grad gesehen dass da noch ein paar Seiten nicht aufgenommen sind, vielleicht hilfts ja ;)

Wenn die Sitemap verfolgt wurde und die Seiten im index sind werde ich dann mal folgendes machen:

einige Artikel entfernen
einige Artikel hinzufügen
Sitemap neu anschupsen

Habe ca. 50 neue Urls nicht in die sitemap übernommen, bei denen ich sehen will ob sie trotzdem per linkverfolgung gelistet werden im Zuge der Aktion.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag