Seite 1 von 1
Indexierung der Sitemap-Links
Verfasst: 25.03.2008, 14:31
von Shady
GUten Tag,
Ich habe in meiner neuen Sitemap 666 sauber html Links, doch davon sind bisher nur 2 indexiert wie lange dauert dasca bis die alle imIndex sind ?
Verfasst:
von
Hochwertiger Linkaufbau bei ABAKUS:
- Google-konformer Linkaufbau
- nachhaltiges Ranking
- Linkbuilding Angebote zu fairen Preisen
- internationale Backlinks
Wir bieten
Beratung und
Umsetzung.
Jetzt anfragen:
0511 / 300325-0
Verfasst: 28.03.2008, 17:53
von Shady
Also bisher wurden von meinen 725 Links gerademal 2 indexiert (das werden warscheinlich die startseite und noch eine sein die ohnehin schon im index war) ist das denn normal ,es sind seit einreichen der sitemap bereits 14 Tage her
Verfasst: 28.03.2008, 17:59
von SchnaeppchenSUMA
"Sitemaps sorgen auch nicht für eine automatsiche Indexierung. Auch wenn Seiten in der Datei vorhanden sind ist das keine Garantie dafür, dass Google diese Seiten auch indexiert."
https://blogs-optimieren.de/2008/01/20/google-sitemaps/
Verfasst: 28.03.2008, 18:02
von MrTunes
Redest Du von einer Google sitemap oder html sitemap oder was...
14 Tage sind gar nix... mit google braucht man viel Geduld.
Für schnellere und bessere Indiziierung helfen viele eingehende Links.
Verfasst: 28.03.2008, 18:16
von Shady
ich rede von der google sitemap (xml) habe diese auch mit dem gsitecrawler gemacht , das problem bei mir ist eben ich betreibe ein forum ,jetzt habe ich mittels eines addons bessere urls generieren können (
www.sexy-shisha.de/sitemap.html).
Diese Links sind aber sonst nirgends auser eben in der (
www.sexy-shisha.de/sitemap.html) , diese hab ich dann gecrwalt (lokalmit dme gsitecrwaler) alle andern seiten per robots.txt ausgesperrt und mir mittelssitemap nun die hoffnung gemacht das diese indexiert werden...
Ist das ein problem das die Links nur in der
www.sexy-shisha.de/sitemap.html vorhanden sind ?
// edit
Derzeit bestimmt der Pagerank nach wie vor, wieviele Unterseiten aufgenommen werden, daran ändert auch eine Sitemaps nichts.
Ist das vllt ein Grund da bereits an die 3000 Unterseiten drin sind ? und ich leider nur einen PR1 habe ?
Verfasst: 28.03.2008, 18:24
von MrTunes
Wo kommt denn der quatsch her... der pagerank taugt als proll faktor.. ansonsten zu nicht viel.
Dass die internen Links nur in der sitemap stehen ist tatsächlich nen Problem. Das ist sogar ziemlich dämlioch.
Verfasst: 28.03.2008, 18:27
von Shady
also wäre es von vorteil wenn ich die ganzen links auf die startseite packe ? oder was wäre jetzt speziell bei mir die beste lösung
Verfasst: 28.03.2008, 18:32
von MrTunes
Also ich weiß nicht was Du da gemacht hast, aber Du solltest dich auf jeden fall für eine Url entscheiden. Und die benutzt Du in ALLEN links die auf die jeweilige Unterseite zeigen.
Du hast da haufenweise schönen DC
Verfasst: 28.03.2008, 18:40
von e-fee
Shady hat geschrieben:alle andern seiten per robots.txt ausgesperrt und mir mittelssitemap nun die hoffnung gemacht das diese indexiert werden...
hoffentlich alles richtig gemacht? nicht zufällig alle Bots komplett ausgesperrt?
Ansonsten: die neuen URLs produzieren ohnehin nur DC, solange Du im Forum selbst weiterhin die alten Verlinkungen hast. DA solltest Du mal ansetzen!
Ich schwör Dir: lies einfach mal nur 3 Tage hier im Forum mit, statt ständig Threads zu irgendwelchen Wehwehchen Deiner Seite aufzumachen! Dann werden Dir eine ganze Menge Sachen von selbst aufgehen, und Du weißt, was Du zu tun oder zu lassen hast, so grob zumindest.
Verfasst: 28.03.2008, 19:19
von Shady
e-fee hat geschrieben:Shady hat geschrieben:alle andern seiten per robots.txt ausgesperrt und mir mittelssitemap nun die hoffnung gemacht das diese indexiert werden...
hoffentlich alles richtig gemacht? nicht zufällig alle Bots komplett ausgesperrt?
Ansonsten: die neuen URLs produzieren ohnehin nur DC, solange Du im Forum selbst weiterhin die alten Verlinkungen hast. DA solltest Du mal ansetzen!
Ich schwör Dir: lies einfach mal nur 3 Tage hier im Forum mit, statt ständig Threads zu irgendwelchen Wehwehchen Deiner Seite aufzumachen! Dann werden Dir eine ganze Menge Sachen von selbst aufgehen, und Du weißt, was Du zu tun oder zu lassen hast, so grob zumindest.
ist doch eigtl irrelewand solange die ganzen .php sites per google ausgesperrt werden ,oder?
Und ich lese hier täglich im Forum,hab mir auch shcon die ganzen Grundlagen durchgelesen nur meist ist es eben schwer diese in meinem Fall umzusetzen.
// in den Webmaster-tools werden mir keine Content Probleme angezeigt
Verfasst: 28.03.2008, 19:30
von MrTunes
benutz bei der verlinkung eindeutige urls. alles andere ist schwachsinn.
Verfasst: 28.03.2008, 20:02
von e-fee
Was allein schon deppert ist: wenn jetzt ein User einen Thread woanders verlinkt: na, was nimmt der wohl? Rischtisch!!! An der Stelle ist also für den Googlebot, der von der anderen Seite kommt (eingehende Links, am besten noch freiwillig, das ist doch das, was sich hier alle wünschen!), Endstation, nachdem er sich erstmal kurz die robots.txt geholt hat! Dito gilt, wenn der Bot "normal" in Deinem Forum landet. Ständig steht der vor versperrten Türen! Nix, was er crawlen darf. Eine Sitemap ist allenfalls eine Ergänzung für die normale seiteninterne Verlinkung, sie ersetzt diese aber nicht.
Junge, da ist, wie wenn Du bei einer Deiner tollen Wasserpfeifen das Mundstück zuklebst und Dich wunderst, wenn nix kommt!
Mach Dir mal die Wege klar, die der Bot geht! Der sieht nur lauter Seiten in einer Sitemap, die außerhalb der Sitemap nirgends verlinkt sind. Und alles Sackgassen. Wie soll der das finden? Da wäre DC noch da kleiner Übel, da kann er wenigstens weiter crawlen. Es muss fließen, das ist das Ding!
Und ich glaube kaum, das es ausgerechnet in Deinem Fall sooooo schwierig ist. Wie kriegen denn alle anderen das hin? Such halt mal den passenden Hack für Deine Forensoftware, damit auch forenintern alle URLs seofreundlich dargestellt werden. Den wird's ja wohl geben (hab grad mal das für Dich ergoogelt ->
https://www.seo-wbb.de/ die können Dir sicher 'nen Tipp geben, wenn die es nicht sogar haben). Und wenn es fummelig sein sollte, das einzubauen, dann musste da halt mal durch!
Verfasst: 28.03.2008, 20:15
von Shady
naja eigentlich sollte der crawelr wenn er von einem link auf die seite kommt ,ja eben die sitemap.thml crawlen (ist im footer angegeben),bleibt ihm ja nichts anderes übrig) und somit dann letztendlich die ganzen hml links
Verfasst: 28.03.2008, 21:06
von e-fee
mei, rauch halt weniger und bemüh mal mehr die grauen Zellen, falls die noch können!
Setz die Sitemap ganz nach oben, dann ist die das Erste, worauf der Bot stößt.
Das ändert aber nichts dran, dass er dann bei jedem Link, dem er nachgeht, in einer Sackgasse landet. Und das ist für die interne Linkpower einfach Scheiße! Warum das so ist, hab ich schon geschrieben, ich wiederhol mich ungern.
Power und so eine Art gute Durchblutung, die da sein könnte, schmeißt du so aus dem Fenster raus.
Übrigens steht Google in der letzten Zeit immer mehr auf Natürlichkeit. Wie natürlich ist das, was Du dem Bot aufzutischen versuchst?
Bot geht auf Startseite: oh, da darf ich nicht, da auch nicht, da auch nicht ... oha, ein Link, wo ich darf. Dieser Link hat aber (wenn ich das richtig erfasst habe) nur noch einen Bruchteil der Power, die er hätte, wenn er da ganz allein stände. Denn die anderen Links sind ja follow. In dieser einen Datei bekommt der Bot dann eine reine Linkliste. Die Power, die ohnehin schon nicht da ist ... Bot geht auf ersten Link: boah, endlich Content - aber leider darf ich hier nicht weiter. Also zurück, nächster Link, wieder Sackgasse. Was der kleine Bot vor allem erkennt, ist ein Muster! Nix natürlich, Linkliste mit lauter Sackgassenlinks. Dass die auf derselben Domain liegen, ist peripher, genausogut kannst da irgendwelche Viagra-Seiten (meinetwegen auch auf Deiner Domain) reinlegen, die werden genauso gut oder schlecht oder auch gar nicht gespidert.
Und übrigens, noch was, was mir beim Schreiben grad eingefallen ist, was ich aber gar nicht bedacht hatte: wenn die Seiten einmal im Index sind, reicht die robots.txt auch gar nicht. Dann mach besser die Links vorerst nofollow, damit keine Power verloren geht, bzw. gib nur den Links, die auf die PHP-Dateien gehen, ein noindex mit. Dann rallt der Bot: oh, die hatte ich schon mal, die soll aber nicht in den Index, also raus damit! Ansonsten die PHP per 301 auf die neuen URLs redirecten und dann wieder ein Rewrite auf die PHP, falls das technisch geht und nicht im Ping-Pong endet (bin da grad überfragt).
Aber das Beste wäre echt mal, wenn Du Dir jetzt einen Hack holst und das ganze Forum einheitlich machst und ggf. die alten Dateien im Index redirectest, damit da möglichst nix verloren geht. Kann sein, dass es trotzdem mal weniger Seiten im Index sein werden, aber das bessert sich dann wieder, und Du hast alles perfekt.
Oder Du lässt die alten URLs (so schlimm sind die auch nicht mehr, halt keine Keys drin, aber bei Threadtiteln kann man die Problematik teilweise eh vernachlässigen) und vermeidest halt bloß DC.
Aber wenn Du meinst, dass mit Deiner Sitemap und der robots.txt alles bestens ist und Du die Dir gegebenen Ratschläge nicht brauchst: auch ok, es ist Dein Forum, und Du trägst die Konsequenzen. Ich wage allerdings zu bezweifeln, dass Du mit Deiner Methode dauerhaft mehr Seiten im Index haben wirst und die besser gerankt werden. Die URL-Keys werden durch die beschissene Verlinkung wieder aufgehoben.
Verfasst: 28.03.2008, 23:32
von Shady
mei, rauch halt weniger und bemüh mal mehr die grauen Zellen, falls die noch können!
Setz die Sitemap ganz nach oben, dann ist die das Erste, worauf der Bot stößt.
Das habe ich gemacht, hoffe das ist so gut umgesetzt wie ich das nun gemacht habe.
Das ändert aber nichts dran, dass er dann bei jedem Link, dem er nachgeht, in einer Sackgasse landet. Und das ist für die interne Linkpower einfach Scheiße! Warum das so ist, hab ich schon geschrieben, ich wiederhol mich ungern.
Power und so eine Art gute Durchblutung, die da sein könnte, schmeißt du so aus dem Fenster raus.
Übrigens steht Google in der letzten Zeit immer mehr auf Natürlichkeit. Wie natürlich ist das, was Du dem Bot aufzutischen versuchst?
Bot geht auf Startseite: oh, da darf ich nicht, da auch nicht, da auch nicht ... oha, ein Link, wo ich darf. Dieser Link hat aber (wenn ich das richtig erfasst habe) nur noch einen Bruchteil der Power, die er hätte, wenn er da ganz allein stände. Denn die anderen Links sind ja follow.
Habe die meisten Seiten jetzt nofollow und teilweise auch noindex gesetzt
In dieser einen Datei bekommt der Bot dann eine reine Linkliste. Die Power, die ohnehin schon nicht da ist ... Bot geht auf ersten Link: boah, endlich Content - aber leider darf ich hier nicht weiter.
Das vesrteh ich leider nicht. wie meinst du das er nicht weiterdarf ? weil die Links alle wieder auf die ganzen .php's führen würden ?
Wenn ja dann dürfte das ja nun auch behoben sein da diese nun nofollow sind.
Also zurück, nächster Link, wieder Sackgasse. Was der kleine Bot vor allem erkennt, ist ein Muster! Nix natürlich, Linkliste mit lauter Sackgassenlinks. Dass die auf derselben Domain liegen, ist peripher, genausogut kannst da irgendwelche Viagra-Seiten (meinetwegen auch auf Deiner Domain) reinlegen, die werden genauso gut oder schlecht oder auch gar nicht gespidert.
Und übrigens, noch was, was mir beim Schreiben grad eingefallen ist, was ich aber gar nicht bedacht hatte: wenn die Seiten einmal im Index sind, reicht die robots.txt auch gar nicht. Dann mach besser die Links vorerst nofollow, damit keine Power verloren geht, bzw. gib nur den Links, die auf die PHP-Dateien gehen, ein noindex mit. Dann rallt der Bot: oh, die hatte ich schon mal, die soll aber nicht in den Index, also raus damit! Ansonsten die PHP per 301 auf die neuen URLs redirecten und dann wieder ein Rewrite auf die PHP, falls das technisch geht und nicht im Ping-Pong endet (bin da grad überfragt).
Da sie nun ja ein noindex haben dürfte das so geregelt sein
Aber das Beste wäre echt mal, wenn Du Dir jetzt einen Hack holst und das ganze Forum einheitlich machst und ggf. die alten Dateien im Index redirectest, damit da möglichst nix verloren geht. Kann sein, dass es trotzdem mal weniger Seiten im Index sein werden, aber das bessert sich dann wieder, und Du hast alles perfekt.
Oder Du lässt die alten URLs (so schlimm sind die auch nicht mehr, halt keine Keys drin, aber bei Threadtiteln kann man die Problematik teilweise eh vernachlässigen) und vermeidest halt bloß DC.
Aber wenn Du meinst, dass mit Deiner Sitemap und der robots.txt alles bestens ist und Du die Dir gegebenen Ratschläge nicht brauchst: auch ok, es ist Dein Forum, und Du trägst die Konsequenzen. Ich wage allerdings zu bezweifeln, dass Du mit Deiner Methode dauerhaft mehr Seiten im Index haben wirst und die besser gerankt werden. Die URL-Keys werden durch die beschissene Verlinkung wieder aufgehoben.
Ich bin über jeden Tipp dankbar und versuche diese auch soweit umzusetzen. Naja danke aufjedenfall für eure Tipps...
Werdmich dann mal wohl informieren müssen wie das genau mit redirecten funktioniert...[/quote]