Seite 1 von 1

Indexierung: Hin und her oder gar nicht

Verfasst: 21.10.2006, 12:04
von marky
Hallo,

ich betreue gerade 5 Projekte SEO-technisch und langsam gehen mir die Mittel und Erklärungen aus - Google scheint sich nun ja völlig jeder Logik entzogen zu haben.

Die Situation ist immer gleich, Relaunch wird gemacht, Seiten werden mit ordentlichem Inhalt aufgebaut, alte Seiten gelöscht und per ordentlichen 404-Header gemeldet.

Bei allen Seiten habe ich dann das gleiche Phänomen, alte Seiten fliegen einfach nicht raus, obwohl Google jeden Tag da ist. Neue Seiten kommen rein, manchmal viele, manchmal wenige - aber bei fast allen Projekten sind die Seiten dann plötzlich wieder weg. Die Anzahl bei "site:" variiert zudem täglich, aber neue Seiten kommen nicht, nur Seiten die es ewig nicht mehr gibt, tauchen mal auf, dann mal wieder nicht.

Daraus ergeben sich 2 Probleme:

1. Was kann ich da machen? Das Vorgehen ist jedesmal gleich, gescheite Inhalte, ordentliche Struktur und Verlinkung, manuelle Backlink-Jagd, Bereinigung der alten Inhalte, ordentliche Header für die Fehlerseiten, wenn es geht 410-Header. Was kann ich bitte mehr tun?

2. Was sage ich/ihr dem Kunden bei sowas, theoretisch sehe ich keine Möglichkeit mehr, dem Kunden seriöses SEO anzubieten, wenn man überhaupt keine Möglichkeit mehr hat, auch nur ansatzweise irgendwas zu prognostizieren, ausser "ich weis nicht was passiert, vielleicht nichts, vielleicht viel".

Ist das jetzt nur mir aufgefallen, aber mir fehlen mittlerweile echt die Mittel und Werkzeuge und die Worte für die Kunden. Die wollen viel Geld ausgeben, aber ohne jede Prognosemöglichkeit kann ich das mit gutem Gewissen nicht annehmen.

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 21.10.2006, 12:26
von web_worker
Hallo Marky,

ziemlich gut wiedergegeben und ehrlich gesagt, in dieser Branche möchte ich im Moment nicht wirklich tätig sein. Ich bin froh, meine eigenen Projekte in Google entsprechend positioniert zu bekommen.

Der GBot spidert wie ein irrer, aber es tröpfeln täglich nur 2-3 Seiten rein, obwohl ich ein durch user redaktionell wachsendes Verzeichnis betreue, welches mittlerweile 2 Jahre alt ist und völlig frei von Spam, DC etc. ist. Ein anderes affili-lastiges Projekt performt da viel besser, obwohl erst knapp ein Jahr alt und full off csv-content. Naja, ich mach eben einfach weiter und das beste draus...

Schönes Wochenende allen und macht mal die Kiste aus,
w_w

Verfasst: 21.10.2006, 12:37
von oldInternetUser
Ich sehe nicht, was daran unlogisch sein sollte. Die üblichen Kataloglinks von Katalogen mit täglichem Zuwachs dürften inzwischen eben kaum mehr wirken, das ist alles.

Solange eine Site keine brauchbaren eingehenden Links hat, bleibt sie eben ziemlich unbeachtet, da schwankt dann alles so herum.

Und wenn ein google-Mitarbeiter den Beitrag lesen würde, dann würde er wohl sagen: 'Wir haben offenbar sehr viel richtig gemacht'.

Daß google neue Unterseiten inzwischen langsamer aufnimmt, merke ich auch - bei der letzten hat das jetzt 1.5 Wochen gebraucht. Gestern abend war sie - zu meiner eigenen Überraschung - sofort auf Platz 2 - bei 260 Mio. Und die 1.5 Wochen sind - bei meinem langfristigen Projekt - ohnehin irrelevant.

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 21.10.2006, 13:32
von marky
Hallo,

es sind keine Katalogs links, sondern "gute" Links. Ich betreue auch nur Projekte, die schon ein paar Jahre alt sind. Es gibt für das "Verhalten" von Google keinen erkennbaren Grund.

Verfasst: 21.10.2006, 13:56
von wulfo
Hi oldInternetUser was ist den daran normal
Bei allen Seiten habe ich dann das gleiche Phänomen, alte Seiten fliegen einfach nicht raus, obwohl Google jeden Tag da ist.
und das mit 404-Header gemeldet, das hat doch nichts mit Katalogeinträgen zu tun, hier geht es doch darum das Google zu blöd ist zu merken das es diese Seiten nicht mehr gibt, also Ressuorsen verschwendet mit Spidern von Seiten die nicht mehr da sind
Und wenn ein google-Mitarbeiter den Beitrag lesen würde, dann würde er wohl sagen: 'Wir haben offenbar sehr viel richtig gemacht'.
He :oops: schaust du dir momentan auch mal die Suchergebnisse an, wo bitte hat Google hier was richtig gemacht
https://www.google.de/search?q=pankrati ... rohr&hl=de
https://www.google.de/search?hl=de&neww ... uche&meta=
https://www.google.de/search?sourceid=n ... auszahlung

und so weiter, wenn da noch einer behauptet das Google das gut gemacht hat der weis wahrscheinlich nicht von was er spricht, :wink:

Verfasst: 21.10.2006, 14:00
von katulago
Also meiner Erfahrung nach braucht man nur etwas Geduld. Nachdem ich ein paar Seiten auf "noindex,nofollow" gesetzt habe, hat es etwa 2 Wochen gedauert, bis sie auf den Google Index verschwinden. (MSN kümmert sich offenbar gar nicht um diese Meta-Tags - die Seiten sind auch nach 3 Monaten noch dort zu finden).

Das Katalog-Links nichts bringen halte ich für ein Gerücht. Ich habe diesbzgl. einige Tests gemacht und verschiedene Linkstrategien verfolgt. Momentan hat die Seite, die ich ausschließlich durch Webkatalog-Einträge für Google bekannt gemacht habe die bestern SERPs, obwohl es sich zu 80% um Links von PR0-Seiten handelt.

Ich glaube der G*-Algorithmus wird einfach überschätzt - m.E. ist er einfach schnell aber dumm.

Re: Indexierung: Hin und her oder gar nicht

Verfasst: 21.10.2006, 17:39
von oldInternetUser
marky hat geschrieben:Bei allen Seiten habe ich dann das gleiche Phänomen, alte Seiten fliegen einfach nicht raus, obwohl Google jeden Tag da ist. Neue Seiten kommen rein, manchmal viele, manchmal wenige - aber bei fast allen Projekten sind die Seiten dann plötzlich wieder weg. Die Anzahl bei "site:" variiert zudem täglich, aber neue Seiten kommen nicht, nur Seiten die es ewig nicht mehr gibt, tauchen mal auf, dann mal wieder nicht.
Das sind - seit Jahren - die typischen Phänomene einer sehr schwachen Domain - raus, rein, raus, rein, kaum Stabilität. Offenbar ist das jetzt deine neue Realität.
marky hat geschrieben:es sind keine Katalogs links, sondern "gute" Links.
Offenbar nicht mehr, daß google in den letzten Monaten drastisch die Bewertungen geändert hat, das ist ja bekannt. Und wenn ich mir eine Domain aus deinem Profil ansehe, dann wüßte ich einige Gründe, das hat ja wenig mit Perl zu tun, was da unter 'Partner' gelistet ist.

@wulfo: Es ist aus den Ausführungen von @marky unklar, ob die fehlenden Seiten überhaupt gespidert werden - falls nein, kriegt google auch keinen 404. Für schwache Domains sind seine Beobachtungen banal. Und es geht nicht um die Suchergebnisse.

Die Aussage
Es gibt für das "Verhalten" von Google keinen erkennbaren Grund.
ist schlicht und einfach immer falsch. Es ist ein sturer Algorithmus, nur sind uns die Datenmengen gänzlich unbekannt, auf denen dieser Algorithmus arbeitet. Und die Details des Algorithmus bzw. das, was google in den letzten Monaten geändert hat, ist natürlich auch unbekannt.

Verfasst: 21.10.2006, 19:56
von marky
Hallo,

wie definierst Du schwache Domains.

Und bei anderen schwachen Domains, geht es auch. Und die Gretchenfrage, wie mache ich aus einer schwachen Domain, eine Domain die wengisten vernüftig gespidert wird? Es geht mir, wie Du erkannt hast, erstmal nicht um die Suchergebnisse, die kann ich ja erst sehen, wenn der Kram mal indexiert ist, den man gemach hat. Im letzten Jahr hatte ich das Phänomen übrigens bei keine noch so schwachen Domain.

Bei den Domains unter Partner läuft das übrigens ohne Probleme. Nur will ich da nicht mehr Links unterbringen, als jetzt - obwohl die Anfragen das Angebot deutlich übersteigen.

Verfasst: 22.10.2006, 09:21
von wulfo
Hi oldInternetUser
Das sind - seit Jahren - die typischen Phänomene einer sehr schwachen Domain - raus, rein, raus, rein, kaum Stabilität. Offenbar ist das jetzt deine neue Realität.
ich habe auch Seiten wo ich denke die sind nicht so schwach, viele Keys top10, PR5 und dennoch hat dort Google Seiten drin von einem Shop den es schon seit 2 Jahren nicht mehr gibt.
Neue Seiten sind innherhalb zwei Tage drin, wo ist da die Realität der Aussage, schwache Domain...?
Und es geht nicht um die Suchergebnisse.
wenn ich die Behauptung aufstellen würde
Und wenn ein google-Mitarbeiter den Beitrag lesen würde, dann würde er wohl sagen: 'Wir haben offenbar sehr viel richtig gemacht'.
so kann das doch ohne weiteres auch auf die Suchergebnisse übertragen werden. Weil was hat den Google die letzte Zeit gut gemacht.
-Uraltseiten sind noch Jahrelang vorhanden
-Problem hjacking, so einfach als lustigen Bug hinstellen? ist seit Jahren bekannt bei Google, wollten Sie beheben
-Prolblem aufgeblähten Index, in verschiedenen Bereichen Unterschiede von mehrer Mill
und noch viele ander Dinge mehr, über Adsens, Adwords usw, da kann doch niemand behaupten google Mitarbeiter sollen sich auf die Schulter klopfen weil Sie was richtig gemacht haben, also mal ehrlich :wink:

Was haben Sie den richtig gemacht?

Verfasst: 23.10.2006, 10:03
von rkecom
Was haben Sie den richtig gemacht?
was den index betrifft nicht viel! - aber als firma alles - marktanteil ausgebaut, umsatz und gewinn extrem gesteigert, etc. .... also alle ziele einer jeden firma erreicht!!!

Re: Indexierung: Hin und her oder gar nicht

Verfasst: 23.10.2006, 10:38
von SloMo
marky hat geschrieben:Die Situation ist immer gleich, Relaunch wird gemacht, Seiten werden mit ordentlichem Inhalt aufgebaut, alte Seiten gelöscht und per ordentlichen 404-Header gemeldet.
Aua, das tut echt weh! Man sollte wo immer möglich einen 301 bevorzugen - auch um von den alten Unterseiten auf die neuen umzuleiten! Google ist nun einmal recht blind, und da kann man nicht genug Hilfestellungen geben. Ein 404 ist allenfalls perfekt geeignet, um alte Contentseiten mit all ihrem Altersbonus und ihrer thematischen Vorgeschichte vorsätzlich zu verbrennen. Ich finde es gerade völlig gerechtfertigt, dass Deine Kunden Dich fragen, was Du da überhaupt treibst.

Verfasst: 23.10.2006, 11:13
von marky
Hallo,

ganz so ist es nicht. Natürlich werden umleitungen gemacht, wo es geht. In den meisten Fällen geht es um eine URL mit Parametern, dh. es sind zb. 10000 Seiten im Index, die alle auf gleiche Scirpt zeigen und sich durch Parameter unterscheiden und die will ich raushaben.

Und das tut nicht weh, also nicht immer so voreilig verurteilen.

Verfasst: 23.10.2006, 11:20
von SloMo
marky hat geschrieben:dh. es sind zb. 10000 Seiten im Index, die alle auf gleiche Scirpt zeigen und sich durch Parameter unterscheiden und die will ich raushaben.
Ja, genau das kann man ganz schmerzlos, indem man all diese parametrierten Unterseiten per 301 auf die neue Contentseite umleitet.
Und das tut nicht weh, also nicht immer so voreilig verurteilen.
Doch, genau das tut weh.

Verfasst: 23.10.2006, 11:39
von marky
Das habe ich natürlich gemacht.