Seite 1 von 2

Google Sitemaps -> Honeypot?

Verfasst: 09.06.2005, 16:32
von tombu
Ich habe mir mal die Google Sitemaps Seite genauer unter die Lupe genommen.

Meine erste Frage war: "Was bringt das einem normalen Web-Publisher? Man kann sich ja so schon vor dem GoogleBot kaum retten"

Die Gegenfrage ist dann "Was bringt es Google?"

Aber wenn man sich die sehr oft wiederholten Aussagen auf der Seite wie:
Legen Sie noch heute los — es kostet keinen Cent
Senden Sie uns Ihre Sitemap noch heute, und verbessern Sie die Präsenz Ihrer Webseiten.
ansieht... ich kenne diese Sprüche doch irgendwoher...

Also seit diesem Satz bin ich persönlich überzeugt, erst recht dadurch dass die Benutzung und Konfiguration des Sitemap Tools viele 0815 User überfordern würde und nur Google-"Kenner" wirklich anspricht, dass das Sitemaps-Projekt ein Honeypot ist um SEOs/SEMs freiwillig laut "HIER! Schmeisst mich aus dem Index!!!" schreien zu lassen :)

Auf jeden Fall denke ich dass jede submittete Page mit über 50 Deeplinks einmal per Hand überprüft wird.

Was denkt ihr drüber?[/b]

Verfasst:
von

Re: Google Sitemaps -> Honeypot?

Verfasst: 09.06.2005, 16:40
von gsyi
tombu hat geschrieben: Also seit diesem Satz bin ich persönlich überzeugt, erst recht dadurch dass die Benutzung und Konfiguration des Sitemap Tools viele 0815 User überfordern würde und nur Google-"Kenner" wirklich anspricht, dass das Sitemaps-Projekt ein Honeypot ist um SEOs/SEMs freiwillig laut "HIER! Schmeisst mich aus dem Index!!!" schreien zu lassen :)
[/b]
In Hilfe findest du alles, auch nichtkönner können das verwenden, außerdem gibts es auch viele Artikel im Web (z. B. https://webmaster-verzeichnis.de/blog/w ... verwendet/ ) :wink: , und wenn man immer noch nicht checkt, legt man eben eine textdatei an mit den entsprechenden URLs

Google Sitemaps -> Honeypot?

Verfasst: 09.06.2005, 16:48
von Chris2005
So ganz unrecht hat Tambu sicherlich nicht. Aber SEO ist ja per sé nix schlechtes.

Sicherlich hat Google damit auch ein paar "dumme" Spammer im Visier, die einfach blindlings alles anmelden was geht. Auf der anderen Seite gibt es viel Content im Netz, der schlicht und ergreifend nicht indiziert ist (Frames, unsaubere interne Verlinkung, JS Links etc.). Sowas kann man mit Hilfe dieser Sitemap-Geschichte umgehen.

Ich denke so schlecht ist der Ansatz nicht. Es wird ja auch nicht alles blindlings übernommen.

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Google Sitemaps -> Honeypot?

Verfasst: 09.06.2005, 16:55
von stalker
durch diese sitemaps ist ein erheblich besseres crawlen möglich
und das nicht nur für google sondern auch alle anderen suchmaschinen

-es werden massig ressourcen durch die last modified daten gespart
-häufig aktualiserte seiten erhalten eine erhöhte crawlrate durch die vergebene priorität
-neue seiten können sehr schnell erfasst werden
-bisher nicht extrahierbare links stellen kein problem mehr da


wenn google irgendwelche seo seiten kicken wollte bräuchten die keine xml sitemaps sondern könnten da erheblich rigoroser vorgehen..

Google Sitemaps -> Honeypot?

Verfasst: 09.06.2005, 17:44
von linux
fakt 1 der googlebot holt die sitemap und spidert die seiten
fakt 2 die seiten kommen in den index
fakt 3 der msnbot und yahoo bot sind "stärker" als der googlebot

seos abstrafen, schwachsinn sie wollen unerreichte seiten im index haben error seiten uns mit dem lastmod und der frq. ist das optimal.

war nur der logische nächste schritt

gruß

linux

Verfasst: 09.06.2005, 18:06
von rechtlegal
Ich hatte schon woanders geschrieben, dass ich von der sitemap nicht viel halte.
Verfasst am: Thu Jun 09, 2005 11:29 am Titel:

--------------------------------------------------------------------------------

Mal 'ne ganz blöde Frage (war ja auch nicht anders zu erwarten):

Wozu eigentlich die Google-sitemap nutzen?

Meine Seiten werden täglich bis in die dritte Ebene gespidert + stehen dann schön in den serps mit aktuellem Datum oder dem des Vortags. Tiefer liegende Seiten brauchen etwas länger, und wenn schon.

Also, was bringt's?
_________________
... egal, legal, rechtlegal
Aktuelles aus Recht + Wirtschaft jede Woche neu
Meine tieferen Unterseiten, auf denen Bewegung herrscht, wurden auch bisher schnell gespidert, die, wo sich nichts tut, nur 1x monatlich.

Also nochmal, was soll das ganze?

Google Sitemaps -> Honeypot?

Verfasst: 09.06.2005, 20:11
von Jojo
Also in Bezug auf Kampf gegen Spam wird Google die Sitemap nicht viel helfen da es nur eine Frage der Zeit ist bis viele CMS\Blogs usw. diese Funktion von Haus aus mitbringen. Es geht Google wirklich nur darum neue Seiten zu finden und veränderte Seiten schneller neu zu indizieren.

Google Sitemaps -> Honeypot?

Verfasst: 09.06.2005, 20:16
von Fridaynite
Meiner unnachgeblichen Meinung nach wollen Sie sich auf Dauer Spiderlast sparen.
Jede Seite, die sich mit ner sitemap meldet wird nur noch irgendwann auf diesen Seiten gespidert. Und dann auch nur noch Seiten, bei denen das Datum aktuell ist.
Vorteil für Google:
Der Spider hat nur noch im 0,01% Bereich auf diesen Domains zu tun. Der Deepcrawler kann gezielt die geänderten Seiten holen. Der Traffic geht zurück für beide Seiten. Ist imho nur wirtschftlich gedacht. Google muss halt auch optimieren für seine Aktionäre. Will nicht wissen, was die für eine rechnung jeden Monat von den Leitungsprovidern bekommen.

Verfasst: 09.06.2005, 20:23
von Steffi
Was die Sitemap bringt ?

An die Zukunft denken, besonders an die von Google!! :wink:

Ich meine Google kann damit erheblich seinen Konkurenten ins Bein schießen.

Denn Google züchtet sich somit seine SEO´s heran, die ihre Linkstrukture in Zukuft wieder etwas sumaUNfreundlicher gestalten können (Flash, Frames etc.)

Resultat:

Yahoo, MSN hätten weniger Material zum Spidern und somit weniger Content.... :idea:

Was meint Ihr zu meiner Vorstellung??
Ich denke das Google und Seo´s keine Feinde sind, eher im Gegenteil, der Seo macht ja im Grunde nichts anderes als den Content für die Sumas aufzubereiten. Der Seo ist der Koch und Google haut sich den Magen voll. Und nun stellt Google halt einen neuen, besseren Kochherd zur Verfügung.

Google Sitemaps -> Honeypot?

Verfasst: 09.06.2005, 20:27
von Steffi
@Fridaynite

Du meinst sie wollen nur Traffic sparen? Aber das können die auch einfacher haben. Google holt sich bei mir jeden Tag die index.php. Ansich würde es doch auch ausreichen wenn das alle 3 Tage passiert.

Verfasst: 09.06.2005, 20:28
von Chris2005
Steffi hat geschrieben: Was meint Ihr zu meiner Vorstellung??
Ich denke das Google und Seo´s keine Feinde sind, eher im Gegenteil, der Seo macht ja im Grunde nichts anderes als den Content für die Sumas aufzubereiten. Der Seo ist der Koch und Google haut sich den Magen voll. Und nun stellt Google halt einen neuen, besseren Kochherd zur Verfügung.
finde ich so unplausibel nicht. Denn solange das SEO sauber ist, ist dagegen auch nichts einzuwenden. Ich denke, Google sieht das ähnlich.

Und SPAM wird es immer geben. Mit oder ohne Sitemap.

Google Sitemaps -> Honeypot?

Verfasst: 09.06.2005, 20:47
von stalker
@Steffi

der denkfehler is das google die sitemap nicht für sich beansprucht und auch alle anderen suchmaschinen zugriff darauf haben ;)


und nocheinmal sei gesagt das mittels xml sitemaps ein enormer sprung richtung intelligentes spidern gemacht wird (wenn es zu einem standart werden sollte)

Google Sitemaps -> Honeypot?

Verfasst: 09.06.2005, 21:01
von Fridaynite
und nocheinmal sei gesagt das mittels xml sitemaps ein enormer sprung richtung intelligentes spidern gemacht wird (wenn es zu einem standart werden sollte)
meine Rede....

Verfasst: 09.06.2005, 22:49
von linux
hat jemand schon mal mitgetrackt welche bots am häufigsten kommen, ich meine keine domains mit 1000 seiten sondern mit 100.000den

nach meinem logging

1.msnbot
2.yahoobot.
3.googlebot.

ich meine wie auch schon andere vor mir sie wollen traffic sparen und besser spidern.
und wir können nicht wissen was sie sich gedacht haben die jungs sind nicht doof

gruß

linux

Google Sitemaps -> Honeypot?

Verfasst: 09.06.2005, 23:33
von tron
ich werde dieses tool meiden.... oder nur eine seite anmelden..

aber macht was ihr wollt :roll: :wink: