Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google knechtet uns aber funktioniert nicht richtig

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
hartertobak
PostRank 3
PostRank 3
Beiträge: 66
Registriert: 20.10.2006, 09:11

Beitrag von hartertobak » 07.11.2006, 18:10

Hallo zusammen,

ich möchte meine Meinung ein wenig kalibrieren und poste daher mal meinen google-Unmut. Meiner Meinung nach macht google vieles falsch.

Grundsätzlich teile ich den Ansatz, dass ein Webangebot umso wichtiger ist, desto mehr externe Links auf eine Seite zeigen. Und das ein Link von einer ebenfalls stark verlinkten Seite mehr Wert ist, als ein Link von einer nicht verlinkten Seite, kann ich ebenfalls nachvollziehen.

Nur warum google sich weigert schlicht allen internen Links einer Website zu folgen kann ich nicht begreifen. Ich habe nun reproduzierbar folgendes beobachtet:
a) Neues Projekt geht online
b) Startseite erscheint nach den üblichen Bemühungen im Index
c) Unterseiten der ersten Ebene erscheinen ebenfalls im Index
d) Die Seiten, die von den Unterseiten verlinkt werden, landen nicht im Index.
e) Wenn externe Links deep in das Projekt linken, dann erbarmt sich dann auch google

Es handelte sich immer um Projekte mit unique Content.

Da beißt sich die Katze in den Schwanz:
Wenn Content, auch richtig wertvoller Content, _gar nicht _ in der SuMa auftaucht, sondern erst wenn diesen jemand verlinkt hat, der den Content anderweitig als über die Suchergebnisse gefunden hat, dann macht doch die ganze Suchmaschine keinen Sinn. Denn wie soll derjenige finden, was er über die SuMa gar nicht findet.
Content-Wichtigkeit basiert also entweder auf gezielten Massnahmen (SEO, SEM, etc) oder aber auf Glück.

Da es sich um google handelt, ist denen dies ganz sicher bewusst und ich rechne dies dem Geschäftssinn zu (Stichwort: Keyword-Buying) und nicht einer Unprofessionalität o.ä.
Sprich: Dieser Blödsinn ist ein Geschäftsmodell!

IMO sollte eine SuMa _alles_ in den Index aufnehmen, was nicht durch die robots.txt ausgeschlossen wird und nach PR und Links etc gewichten. Warum google nur einen Teil der erreichbaren Daten aufnimmt ist mir schleierhaft. Das double-Content nicht wieder und wieder aufgenommen werden sollte ist klar, aber unique-Content? Kommt schon...das kann es doch nicht sein!

Ich für meinen Teil bin nicht gewillt eine Suchmaschine zu benutzen, die mich derart knechtet aber schlicht ihren Dienst nicht erledigt.

Oder sehe ich das grundlegend falsch?

Danke für die Antworten :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 07.11.2006, 18:31

Ein paar kleine Gedanken von mir:

- Google ist eine der vielen am Markt vorhandenen Suchmaschinen
Wenn Content, auch richtig wertvoller Content,
Was ist das für Content, hast du den zum Gutachter gebracht, oder so viel dafür bezahlt, dass er so wertvoll ist ?

Nur warum google sich weigert schlicht allen internen Links einer Website zu folgen kann ich nicht begreifen. Ich habe nun reproduzierbar folgendes beobachtet:

Google weigert sich überhaupt nicht, internen Links zu folgen. Das Problem liegt vielleicht hier:

a) Neues Projekt geht online
Dein neues Projekt wird vom Web zur Kenntniss genommen, in dem von irgendwo ein Link auf dieses zeigt. Bist du clever, hilfst du da etwas nach.
und schon passiert es:
b) Startseite erscheint nach den üblichen Bemühungen im Index
Und siehe da,
c) Unterseiten der ersten Ebene erscheinen ebenfalls im Index
ist DAS nicht super ?

Und, damit ja eine Suchmaschine, auch Google, überwiegend ein haufen dumpfer Programmschnipsel mit einem ganz großen haufen Bytes in Datenbanken ist, hat Google eine Bremse eingebaut. Sonst wäre es ja wohl für die MegadatenbankSEOSuperseitenbreitziehangebote zu einfach, milliarden von ***seiten in die Datenbank zu drücken.
Deswegen passiert erst mal das:
d) Die Seiten, die von den Unterseiten verlinkt werden, landen nicht im Index.
Hier könnte man auch das Wörtchen *vorerst* einschieben.

Wenn deine neue Seite sich nun die Spielhose ausgezogen hat, dann finden auch andere deinen super wichtigen Content wichtig, besonders weil er so wertvoll ist.
Und siehe da,
e) dann erbarmt sich dann auch google


Ich für meinen Teil bin nicht gewillt eine Suchmaschine zu benutzen, die mich derart knechtet aber schlicht ihren Dienst nicht erledigt.

Google knechtet mich überhaupt nicht, ich finde, manchmal über einige Anstrengungen (aber wozu gibt es die logischen Verknüpfungen) das was ich suche. Und, ich habe sogar noch die Möglichkeit, als kleiner Pimpf (was es zur Vor-Google-Zeit kaum bzw. unbezahlbar gab) auf einer Plattform mit ca. 150 Mio. Suchanfragen pro Tag meine Werbung zu schalten.

Ach ja...
Und ich lebe auch noch von dieser bösen Suchmaschine, die mich so knechtet, indem sie:
1.) mir Besucher beschert und
2.) mir jeden monat einen großen Haufen Geld überweist.

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 07.11.2006, 18:46

hartertobak hat geschrieben:IMO sollte eine SuMa _alles_ in den Index aufnehmen, was nicht durch die robots.txt ausgeschlossen wird und nach PR und Links etc gewichten. Warum google nur einen Teil der erreichbaren Daten aufnimmt ist mir schleierhaft. Das double-Content nicht wieder und wieder aufgenommen werden sollte ist klar, aber unique-Content? Kommt schon...das kann es doch nicht sein!
Es geht ja nicht nur um Deine Seite, richtiger Denkansatz übrigens, aber wg. der bereits jetzt von Google zugegebenen, angeblich mangelnden Speicherkapazität ist dies wohl nicht (mehr) möglich.
Es geht noch um einen viel wichtigeren Punkt, der immer harmlos als "Spam-Vermeidungs-Strategie" tituliert wird. Es geht um den Tatbestand der Zensur einer marktbeherrschenden Suchmaschine.
Dein Fall ist eher unfreiwillige Zensur (durch Weglassen oder Nicht-Spidern), in anderen Fällen werden klinisch reine Datenbestände bewußt und manipulativ aus dem Index entfernt- dafür gibt es ausreichend Belege.
Mir ist es explizit bei meiner Suche nach neuen Lieferanten für Server aufgefallen, daß etliche plötzlich nicht mehr zu finden sind, vulgo: Google hat sie aus dem Index geschmissen. In anderen Suchmaschinen sind die gesuchten Datenbestände zu finden. Wohlgemerkt: es geht nicht um Gewichtung- die entsprechenden Domains sind schlichtweg futsch!
Warum, wissen die Betroffenen wahrscheinlich zum gößten Teil auch nicht, denn es handelt sich dabei nicht um gerade kleine Klitschen, die es nötig hätten zu spammen.
Vielleicht weiß Google es, sagt es aber nicht, denn deren Gründe werden nicht publik, man schottet sich immer rigider ab.
Das kann ich allenfalls bei Nummer 7 oder zwölfundneunzig der aktuellen Suchmaschinenliste akzeptieren, nicht jedoch beim Monopolisten.
Prinzipiell sind wir hier auf dem Weg, den Zensoren wie Büssow und Konsorten immer vehement gefordert haben, allerdings auf die klammheimliche Art, hintenrum.
Die Zensur, die viele mit Sperrverfügungen an Provider durchsetzen wollen, ist nach den Erfahrungen, die ich in den letzten Wochen gemacht habe, längst Realität- nur merkt es kaum einer.
Ausserdem ist sie effektiver und wesentlich perfider: was man nicht findet kann man auch nicht anwählen.
Da, und zu allererst da, gilt es nun mittlerweile den Hebel anzusetzen, denn die Google-Clique hat sich ganz offensichtlich verselbständigt.
Entweder gilt es langsam das Monopol zu brechen, notfalls gesetzgeberisch auf europäischer Ebene, oder die Faktoren von Nichtberücksichtigung von Seiten werden glasklar formuliert und nachprüfbar begründet.
Alles andere ist nichts weniger als die Realisierung von Mielke's feuchten Träumen.
China ist überall.