Seite 1 von 2
sitemap.xml sucks!
Verfasst: 14.09.2005, 12:46
von excess
So ich werfe den Mist nun wieder raus.
Google liest aller 8 Stunden die XML ein und macht nichts.
Dann lieber normal alles korrekt verlinken und fertig.
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Re: sitemap.xml sucks!
Verfasst: 14.09.2005, 12:48
von Pretender
Moin Moin
excess hat geschrieben:Dann lieber normal alles korrekt verlinken und fertig.
Das sollte eine "normale" gute Verlinkung auch nicht ersetzen.
Ist halt Beta...
Verfasst: 14.09.2005, 12:50
von Hohenberg
ooch ... keine Backlinks abbekommen?
- Google liest nicht mehr ein wegen einer Sitemap - nur vielleicht vernünftiger...
- Google interessiert sich nur für ein Subset deiner Seiten. Wie viel das sind, hängt direkt mit der Anzahl und der Qualität der Inbound Links zusammen.
- Google kann immer nur die volle Sitemap einlesen
Verfasst:
von
SEO Consulting bei
ABAKUS Internet Marketing Erfahrung seit 2002
- persönliche Betreuung
- individuelle Beratung
- kompetente Umsetzung
Jetzt anfragen:
0511 / 300325-0.
sitemap.xml sucks!
Verfasst: 14.09.2005, 13:15
von Nullpointer
direkt von der sitemap habe ich auch keinen nutzen. aber das "neue" feature 'stats' bietet einem eine gute kontrolle, was google an der eigenen seite auszusetzen hat.
sitemap.xml sucks!
Verfasst: 14.09.2005, 13:24
von Forenmensch
Das Stats Feature gibt immer nur aus:
Beim Crawlen Ihrer Website traten keinerlei Probleme auf. Da das Crawlen von Websites auf regelmäßiger Basis erfolgt, können Sie später noch einmal nachschauen, um die aktualisierten Statistiken anzuzeigen.
Verfasst: 14.09.2005, 14:13
von excess
Wiegesagt die xml verursacht nur sinnlosen Traffic.
Da alle meine Seiten korrekt verlinkt sind, findet Google auch so alle Seiten...
sitemap.xml sucks!
Verfasst: 14.09.2005, 17:37
von jabz.biz
Hmmm...also ich habe gemerkt das Seiten so schneller indiziert werden. Es gibt auch Teile auf meiner Seite die nicht verlinkt sind... sozusagen "specials". Die werden auch nur so gefunden. Ist aber speziell, geb´ich ja zu.
Verfasst: 14.09.2005, 20:48
von linux
ich lliebe die sitemap!!!!!!!
neues cheater portal mit eigenem contet wurde vor ca 3 we online gestellt.
2 links von extern und dazu ne saubere sitemap!
1 we später waren 10.000 seiten drinnen mit titel und allem!!
was will man mehr
gruß
linux
sitemap.xml sucks!
Verfasst: 14.09.2005, 21:18
von blackhole
@linux
Deine Rechtschreibung war aber auch schon besser.

sitemap.xml sucks!
Verfasst: 14.09.2005, 22:15
von linux
@blackhole
hast ja recht sorry habe mir das bayern spiel angesehen und dabei getippt.
gruß
linux
sitemap.xml sucks!
Verfasst: 14.09.2005, 23:06
von cu-viper
Hmm - also meine Erfahrungen mit der Sitemap sind mehr als ernüchternd. Keine Seite im Index und zum dank seit Abschaltung kaum Botbesuche mehr.
Irgendwas stimmt da nicht
Mfg Stephan
sitemap.xml sucks!
Verfasst: 15.09.2005, 11:25
von bugscout
moin moin,
ein auto ohne mit servolenkung fährt auch nicht schneller als eins mit.
die richtung wo es lang geht lässt sich aber bequemer bestimmen.
ich habe z.b. ein archiv in den tiefen ebenen (da soll es linktechnisch auch sein), dass jede woche einmal neue beiträge bekommt.
desweiteren ein cms und ein forum mit neuen beiträgen. da kann ich dank der sitemap den bot jetzt gezielt hinschicken.
die eigentliche seite wird dadurch natürlich keinen deut besser.
grüsse
mal funzt es, mal nicht???
Verfasst: 15.09.2005, 17:15
von ankesschnulli
ich versteh googles xml sitemap nicht.
folgendes problem: ich arbeite in einem großen Unternehmen, was mehrere websites hat folglich auch mehrere domains.
alle webauftritte werden mit einem WCMS erstellt. für alle habe ich eine sitemap erstellt, siehe da bei einer von vier domains hat die sitmap etwas gebracht: von ca. 1000 vorhanden seiten sind nun 11.000 indiziert, was mich stark verwundert, wo google nur die ganzen seiten hernimmt??
bei allen anderen drei domains passiert nichts!!!
sitemap.xml sucks!
Verfasst: 15.09.2005, 17:35
von Nullpointer
schau dir doch mal die urls an. sieht doch nach dc aus, oder?
kann bei nem cms ja schnell mal passieren.
sitemap.xml sucks!
Verfasst: 15.09.2005, 20:49
von bugscout
moin moin,
von ca. 1000 vorhanden seiten sind nun 11.000 indiziert
die anzeige spinnt total.
habe bei einem relativ gut optimierten forum (abschaltung aller nutzlosen links) auch ~1000 beiträge und seit kurzem 16000 seiten im index.
die haben wahrscheinlich irgendwo im algo eine null verloren.
grüsse