Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Ist das vllt ein Grund da bereits an die 3000 Unterseiten drin sind ? und ich leider nur einen PR1 habe ?Derzeit bestimmt der Pagerank nach wie vor, wieviele Unterseiten aufgenommen werden, daran ändert auch eine Sitemaps nichts.
hoffentlich alles richtig gemacht? nicht zufällig alle Bots komplett ausgesperrt?Shady hat geschrieben:alle andern seiten per robots.txt ausgesperrt und mir mittelssitemap nun die hoffnung gemacht das diese indexiert werden...
ist doch eigtl irrelewand solange die ganzen .php sites per google ausgesperrt werden ,oder?e-fee hat geschrieben:hoffentlich alles richtig gemacht? nicht zufällig alle Bots komplett ausgesperrt?Shady hat geschrieben:alle andern seiten per robots.txt ausgesperrt und mir mittelssitemap nun die hoffnung gemacht das diese indexiert werden...
Ansonsten: die neuen URLs produzieren ohnehin nur DC, solange Du im Forum selbst weiterhin die alten Verlinkungen hast. DA solltest Du mal ansetzen!
Ich schwör Dir: lies einfach mal nur 3 Tage hier im Forum mit, statt ständig Threads zu irgendwelchen Wehwehchen Deiner Seite aufzumachen! Dann werden Dir eine ganze Menge Sachen von selbst aufgehen, und Du weißt, was Du zu tun oder zu lassen hast, so grob zumindest.
Das habe ich gemacht, hoffe das ist so gut umgesetzt wie ich das nun gemacht habe.mei, rauch halt weniger und bemüh mal mehr die grauen Zellen, falls die noch können!
Setz die Sitemap ganz nach oben, dann ist die das Erste, worauf der Bot stößt.
Habe die meisten Seiten jetzt nofollow und teilweise auch noindex gesetztDas ändert aber nichts dran, dass er dann bei jedem Link, dem er nachgeht, in einer Sackgasse landet. Und das ist für die interne Linkpower einfach Scheiße! Warum das so ist, hab ich schon geschrieben, ich wiederhol mich ungern.
Power und so eine Art gute Durchblutung, die da sein könnte, schmeißt du so aus dem Fenster raus.
Übrigens steht Google in der letzten Zeit immer mehr auf Natürlichkeit. Wie natürlich ist das, was Du dem Bot aufzutischen versuchst?
Bot geht auf Startseite: oh, da darf ich nicht, da auch nicht, da auch nicht ... oha, ein Link, wo ich darf. Dieser Link hat aber (wenn ich das richtig erfasst habe) nur noch einen Bruchteil der Power, die er hätte, wenn er da ganz allein stände. Denn die anderen Links sind ja follow.
In dieser einen Datei bekommt der Bot dann eine reine Linkliste. Die Power, die ohnehin schon nicht da ist ... Bot geht auf ersten Link: boah, endlich Content - aber leider darf ich hier nicht weiter.
Da sie nun ja ein noindex haben dürfte das so geregelt seinAlso zurück, nächster Link, wieder Sackgasse. Was der kleine Bot vor allem erkennt, ist ein Muster! Nix natürlich, Linkliste mit lauter Sackgassenlinks. Dass die auf derselben Domain liegen, ist peripher, genausogut kannst da irgendwelche Viagra-Seiten (meinetwegen auch auf Deiner Domain) reinlegen, die werden genauso gut oder schlecht oder auch gar nicht gespidert.
Und übrigens, noch was, was mir beim Schreiben grad eingefallen ist, was ich aber gar nicht bedacht hatte: wenn die Seiten einmal im Index sind, reicht die robots.txt auch gar nicht. Dann mach besser die Links vorerst nofollow, damit keine Power verloren geht, bzw. gib nur den Links, die auf die PHP-Dateien gehen, ein noindex mit. Dann rallt der Bot: oh, die hatte ich schon mal, die soll aber nicht in den Index, also raus damit! Ansonsten die PHP per 301 auf die neuen URLs redirecten und dann wieder ein Rewrite auf die PHP, falls das technisch geht und nicht im Ping-Pong endet (bin da grad überfragt).
Ich bin über jeden Tipp dankbar und versuche diese auch soweit umzusetzen. Naja danke aufjedenfall für eure Tipps...Aber das Beste wäre echt mal, wenn Du Dir jetzt einen Hack holst und das ganze Forum einheitlich machst und ggf. die alten Dateien im Index redirectest, damit da möglichst nix verloren geht. Kann sein, dass es trotzdem mal weniger Seiten im Index sein werden, aber das bessert sich dann wieder, und Du hast alles perfekt.
Oder Du lässt die alten URLs (so schlimm sind die auch nicht mehr, halt keine Keys drin, aber bei Threadtiteln kann man die Problematik teilweise eh vernachlässigen) und vermeidest halt bloß DC.
Aber wenn Du meinst, dass mit Deiner Sitemap und der robots.txt alles bestens ist und Du die Dir gegebenen Ratschläge nicht brauchst: auch ok, es ist Dein Forum, und Du trägst die Konsequenzen. Ich wage allerdings zu bezweifeln, dass Du mit Deiner Methode dauerhaft mehr Seiten im Index haben wirst und die besser gerankt werden. Die URL-Keys werden durch die beschissene Verlinkung wieder aufgehoben.