Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google knechtet uns aber funktioniert nicht richtig

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
hartertobak
PostRank 3
PostRank 3
Beiträge: 66
Registriert: 20.10.2006, 09:11

Beitrag von hartertobak » 07.11.2006, 18:10

Hallo zusammen,

ich möchte meine Meinung ein wenig kalibrieren und poste daher mal meinen google-Unmut. Meiner Meinung nach macht google vieles falsch.

Grundsätzlich teile ich den Ansatz, dass ein Webangebot umso wichtiger ist, desto mehr externe Links auf eine Seite zeigen. Und das ein Link von einer ebenfalls stark verlinkten Seite mehr Wert ist, als ein Link von einer nicht verlinkten Seite, kann ich ebenfalls nachvollziehen.

Nur warum google sich weigert schlicht allen internen Links einer Website zu folgen kann ich nicht begreifen. Ich habe nun reproduzierbar folgendes beobachtet:
a) Neues Projekt geht online
b) Startseite erscheint nach den üblichen Bemühungen im Index
c) Unterseiten der ersten Ebene erscheinen ebenfalls im Index
d) Die Seiten, die von den Unterseiten verlinkt werden, landen nicht im Index.
e) Wenn externe Links deep in das Projekt linken, dann erbarmt sich dann auch google

Es handelte sich immer um Projekte mit unique Content.

Da beißt sich die Katze in den Schwanz:
Wenn Content, auch richtig wertvoller Content, _gar nicht _ in der SuMa auftaucht, sondern erst wenn diesen jemand verlinkt hat, der den Content anderweitig als über die Suchergebnisse gefunden hat, dann macht doch die ganze Suchmaschine keinen Sinn. Denn wie soll derjenige finden, was er über die SuMa gar nicht findet.
Content-Wichtigkeit basiert also entweder auf gezielten Massnahmen (SEO, SEM, etc) oder aber auf Glück.

Da es sich um google handelt, ist denen dies ganz sicher bewusst und ich rechne dies dem Geschäftssinn zu (Stichwort: Keyword-Buying) und nicht einer Unprofessionalität o.ä.
Sprich: Dieser Blödsinn ist ein Geschäftsmodell!

IMO sollte eine SuMa _alles_ in den Index aufnehmen, was nicht durch die robots.txt ausgeschlossen wird und nach PR und Links etc gewichten. Warum google nur einen Teil der erreichbaren Daten aufnimmt ist mir schleierhaft. Das double-Content nicht wieder und wieder aufgenommen werden sollte ist klar, aber unique-Content? Kommt schon...das kann es doch nicht sein!

Ich für meinen Teil bin nicht gewillt eine Suchmaschine zu benutzen, die mich derart knechtet aber schlicht ihren Dienst nicht erledigt.

Oder sehe ich das grundlegend falsch?

Danke für die Antworten :)

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 07.11.2006, 18:31

Ein paar kleine Gedanken von mir:

- Google ist eine der vielen am Markt vorhandenen Suchmaschinen
Wenn Content, auch richtig wertvoller Content,
Was ist das für Content, hast du den zum Gutachter gebracht, oder so viel dafür bezahlt, dass er so wertvoll ist ?

Nur warum google sich weigert schlicht allen internen Links einer Website zu folgen kann ich nicht begreifen. Ich habe nun reproduzierbar folgendes beobachtet:

Google weigert sich überhaupt nicht, internen Links zu folgen. Das Problem liegt vielleicht hier:

a) Neues Projekt geht online
Dein neues Projekt wird vom Web zur Kenntniss genommen, in dem von irgendwo ein Link auf dieses zeigt. Bist du clever, hilfst du da etwas nach.
und schon passiert es:
b) Startseite erscheint nach den üblichen Bemühungen im Index
Und siehe da,
c) Unterseiten der ersten Ebene erscheinen ebenfalls im Index
ist DAS nicht super ?

Und, damit ja eine Suchmaschine, auch Google, überwiegend ein haufen dumpfer Programmschnipsel mit einem ganz großen haufen Bytes in Datenbanken ist, hat Google eine Bremse eingebaut. Sonst wäre es ja wohl für die MegadatenbankSEOSuperseitenbreitziehangebote zu einfach, milliarden von ***seiten in die Datenbank zu drücken.
Deswegen passiert erst mal das:
d) Die Seiten, die von den Unterseiten verlinkt werden, landen nicht im Index.
Hier könnte man auch das Wörtchen *vorerst* einschieben.

Wenn deine neue Seite sich nun die Spielhose ausgezogen hat, dann finden auch andere deinen super wichtigen Content wichtig, besonders weil er so wertvoll ist.
Und siehe da,
e) dann erbarmt sich dann auch google


Ich für meinen Teil bin nicht gewillt eine Suchmaschine zu benutzen, die mich derart knechtet aber schlicht ihren Dienst nicht erledigt.

Google knechtet mich überhaupt nicht, ich finde, manchmal über einige Anstrengungen (aber wozu gibt es die logischen Verknüpfungen) das was ich suche. Und, ich habe sogar noch die Möglichkeit, als kleiner Pimpf (was es zur Vor-Google-Zeit kaum bzw. unbezahlbar gab) auf einer Plattform mit ca. 150 Mio. Suchanfragen pro Tag meine Werbung zu schalten.

Ach ja...
Und ich lebe auch noch von dieser bösen Suchmaschine, die mich so knechtet, indem sie:
1.) mir Besucher beschert und
2.) mir jeden monat einen großen Haufen Geld überweist.

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 07.11.2006, 18:46

hartertobak hat geschrieben:IMO sollte eine SuMa _alles_ in den Index aufnehmen, was nicht durch die robots.txt ausgeschlossen wird und nach PR und Links etc gewichten. Warum google nur einen Teil der erreichbaren Daten aufnimmt ist mir schleierhaft. Das double-Content nicht wieder und wieder aufgenommen werden sollte ist klar, aber unique-Content? Kommt schon...das kann es doch nicht sein!
Es geht ja nicht nur um Deine Seite, richtiger Denkansatz übrigens, aber wg. der bereits jetzt von Google zugegebenen, angeblich mangelnden Speicherkapazität ist dies wohl nicht (mehr) möglich.
Es geht noch um einen viel wichtigeren Punkt, der immer harmlos als "Spam-Vermeidungs-Strategie" tituliert wird. Es geht um den Tatbestand der Zensur einer marktbeherrschenden Suchmaschine.
Dein Fall ist eher unfreiwillige Zensur (durch Weglassen oder Nicht-Spidern), in anderen Fällen werden klinisch reine Datenbestände bewußt und manipulativ aus dem Index entfernt- dafür gibt es ausreichend Belege.
Mir ist es explizit bei meiner Suche nach neuen Lieferanten für Server aufgefallen, daß etliche plötzlich nicht mehr zu finden sind, vulgo: Google hat sie aus dem Index geschmissen. In anderen Suchmaschinen sind die gesuchten Datenbestände zu finden. Wohlgemerkt: es geht nicht um Gewichtung- die entsprechenden Domains sind schlichtweg futsch!
Warum, wissen die Betroffenen wahrscheinlich zum gößten Teil auch nicht, denn es handelt sich dabei nicht um gerade kleine Klitschen, die es nötig hätten zu spammen.
Vielleicht weiß Google es, sagt es aber nicht, denn deren Gründe werden nicht publik, man schottet sich immer rigider ab.
Das kann ich allenfalls bei Nummer 7 oder zwölfundneunzig der aktuellen Suchmaschinenliste akzeptieren, nicht jedoch beim Monopolisten.
Prinzipiell sind wir hier auf dem Weg, den Zensoren wie Büssow und Konsorten immer vehement gefordert haben, allerdings auf die klammheimliche Art, hintenrum.
Die Zensur, die viele mit Sperrverfügungen an Provider durchsetzen wollen, ist nach den Erfahrungen, die ich in den letzten Wochen gemacht habe, längst Realität- nur merkt es kaum einer.
Ausserdem ist sie effektiver und wesentlich perfider: was man nicht findet kann man auch nicht anwählen.
Da, und zu allererst da, gilt es nun mittlerweile den Hebel anzusetzen, denn die Google-Clique hat sich ganz offensichtlich verselbständigt.
Entweder gilt es langsam das Monopol zu brechen, notfalls gesetzgeberisch auf europäischer Ebene, oder die Faktoren von Nichtberücksichtigung von Seiten werden glasklar formuliert und nachprüfbar begründet.
Alles andere ist nichts weniger als die Realisierung von Mielke's feuchten Träumen.
China ist überall.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

last_letter
PostRank 6
PostRank 6
Beiträge: 415
Registriert: 13.06.2006, 12:42

Beitrag von last_letter » 07.11.2006, 19:21

Nuuun ja... Du kannst doch nicht wissen, warum Google diese Monopolseiten, wie du sie nennst, aus dem Index geschmissen hast. Nur weil sie mal da waren und jetzt nicht mehr da sind, kannst du nicht von gezielter Zensur sprechen. Das ist mir hier wirklich zu wage...

@hartertobak: Wie sieht's denn aus mit "Sitemap anlegen"?

Und wie ist das eigentlich mit dem "Speichermangel" von Google? Ich meine, dass ist ja wohl schon ne ziemlich dumme Begründung, Seiten nicht aufzunehmen, oder? Können die sich denn nicht noch "ein paar" Server kaufen?

Anonymous

Beitrag von Anonymous » 07.11.2006, 19:55

hartertobak hat geschrieben: Ich für meinen Teil bin nicht gewillt eine Suchmaschine zu benutzen, die mich derart knechtet aber schlicht ihren Dienst nicht erledigt.
Witzig - ja genau - gibs ihm - Google. :wink: Die heulen bestimmt weil Du Dich da verweigerst.

Alternativ könntest Du Deine Navigation überdenken, flache Strukturen erzeugen und eine Sitemap erstellen um der blöden Suchmaschine unter die Arme zu greifen. Oder auch eine Beschwerde schreiben, natürlich... :snipersmile:

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 07.11.2006, 20:00

Das
hartertobak hat geschrieben:a) Neues Projekt geht online
b) Startseite erscheint nach den üblichen Bemühungen im Index
und das
hartertobak hat geschrieben:Es handelte sich immer um Projekte mit unique Content.
schließt sich - für hinreichend SEO-fremde Personen wie mich - aus.

Wer wirklich unique Content hat und etwas eigenständiges macht, der lebt nicht von SEO, sondern der lebt von seinem eigentlichen Projekt. Im Web gibt es diverse dieser Unikate - ein paar gibt es auch hier. Aber die stellen nicht alle paar Wochen solche neuen Projekte online und besitzen dann auch noch die Frechheit, zu behaupten, daß das unique sei - ist es meistens nicht, sondern abgeschrieben und ein bißchen umformuliert, anders ist es gar nicht möglich, so viel zu produzieren.
hartertobak hat geschrieben:Oder sehe ich das grundlegend falsch?
Natürlich, aber Du wirst ja wahrscheinlich auch von Klickies leben. Insofern ist der blinde Fleck im Auge des Betrachters zu erwarten.

Nach dieser These hätte ich meine tatsächlich unique Domain niemals hochgekriegt, weil sie ja nie Links bekommen hätte und damit auch nie gefunden worden wäre.

@Regine: Flache Strukturen müssen gar nicht sein, über eine Aussage, daß jede Seite zwei Klicks von der Startseite entfernt sein müsse, kann ich nur müde lächeln. Ganz im Gegenteil: Thematisch konzentrierte, größtenteils voneinander abgeschottete Unterverzeichnisse.

Anonymous

Beitrag von Anonymous » 07.11.2006, 20:20

oldInternetUser hat geschrieben: @Regine: Flache Strukturen müssen gar nicht sein, über eine Aussage, daß jede Seite zwei Klicks von der Startseite entfernt sein müsse, kann ich nur müde lächeln. Ganz im Gegenteil: Thematisch konzentrierte, größtenteils voneinander abgeschottete Unterverzeichnisse.
Dann lächel mal, ich mach das auch wenn ich diesen Teil Deines Beitrages lese. :wink:

ts
PostRank 7
PostRank 7
Beiträge: 551
Registriert: 06.08.2005, 01:55
Wohnort: München

Beitrag von ts » 07.11.2006, 20:37

Edit:

Ooops, da habe ich mich von der Überschrift, die ziemlich am Thema vorbei geht, irritieren lassen. Naja ich habe in den letzten Tagen zuviel Zony gelesen.

Aber das Prinzip: Wenige externe Links => Wenige Seiten im Index finde ich nachvollziehbar und logisch.
Zuletzt geändert von ts am 07.11.2006, 21:25, insgesamt 1-mal geändert.

Solander
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 28.09.2006, 15:41
Wohnort: Köln

Beitrag von Solander » 07.11.2006, 20:54

Also, ich bin zwar ein Noob, aber meine private Hobby-Seite ist nach fast exakt 6 Monaten komplett bis zur 4. Ebene im Index. Zwar teilweise nur zusätzliches ergebnis, aber durch entsprechende Suchbegriffe findet man jede einzelne Seite. Und das sind laut Google mittlerweile "ungefähr 985".

Habe nichts gemacht, außer eine Sitemap einzureichen (die aber nicht alle Seiten umfasst) und dann möglichst jede Seite durch interne Verlinkung erreichbar zu machen. Scheint zu klappen :)

Greg

last_letter
PostRank 6
PostRank 6
Beiträge: 415
Registriert: 13.06.2006, 12:42

Beitrag von last_letter » 07.11.2006, 22:51

oldInternetUser hat geschrieben:
Wer wirklich unique Content hat und etwas eigenständiges macht, der lebt nicht von SEO, sondern der lebt von seinem eigentlichen Projekt. Im Web gibt es diverse dieser Unikate - ein paar gibt es auch hier. Aber die stellen nicht alle paar Wochen solche neuen Projekte online und besitzen dann auch noch die Frechheit, zu behaupten, daß das unique sei - ist es meistens nicht, sondern abgeschrieben und ein bißchen umformuliert, anders ist es gar nicht möglich, so viel zu produzieren.
Dann gibt es auf der Welt auch keine Einzigartigkeit mehr, weil jedes Atom ja schon mal irgendwie ähnlich verwendet wurde wie das vorherige.

MeNoZony
PostRank 6
PostRank 6
Beiträge: 476
Registriert: 26.08.2004, 01:59
Wohnort: Ruhrgebiet

Beitrag von MeNoZony » 08.11.2006, 01:54

last_letter hat geschrieben:Nuuun ja... Du kannst doch nicht wissen, warum Google diese Monopolseiten, wie du sie nennst, aus dem Index geschmissen hast. Nur weil sie mal da waren und jetzt nicht mehr da sind, kannst du nicht von gezielter Zensur sprechen. Das ist mir hier wirklich zu wage...
Seufz.
Wann wird denn mal richtig zitiert...?
Ich habe nicht davon gesprochen, daß die gesuchten Lieferanten Monopolisten sind sondern das Google Monopolist ist und daß ein Monopolist, der Domains ohne nachvollziehbare, öffentlich gemachte Gründe aus dem Index eliminiert, Zensor ist.

Zum Thema:
ts hat geschrieben: Aber das Prinzip: Wenige externe Links => Wenige Seiten im Index finde ich nachvollziehbar und logisch.
Bei mir stimmt diese Logik nachweislich nicht. Es werden von mir massenhaft Seiten im Index wiedergegeben die nicht mit zwei Mausclicks zu erreichen sind. Einzige Verlinkung dieser Seiten läuft über die index.html und die davon verlinkte sitemap, in der die entsprechenden Links aufgelistet sind, externe Verlinkung auf etliche Domains mit diesem Schema ist sehr, sehr rudimentär.

The-Plaqe
PostRank 6
PostRank 6
Beiträge: 364
Registriert: 19.10.2005, 09:53

Beitrag von The-Plaqe » 08.11.2006, 05:49

jo, wenn mir caches von alten seiten von mir, wie dieser unter die nase gewedelt werden
...nach dem Stand vom 19. Dez. 2004 05:55:40 GMT.
G o o g l es Cache enthält einen Schnappschuss der Webseite, der während des Webdurchgangs aufgenommenen wurde....
glaube ich so langsam auch an den weihnachtsmann! :bad-words:

hartertobak
PostRank 3
PostRank 3
Beiträge: 66
Registriert: 20.10.2006, 09:11

Beitrag von hartertobak » 08.11.2006, 10:23

Schon witzig, wie man hier direkt zerfleischt wird.
Hatte ich hier irgendwen persönlich angegriffen?
Egal. BOT

Ich bin weder SEO noch lebe ich von Klicks. Ich bin technischer Dienstleister und erstelle Web-Lösungen für Kunden die individuelle Lösungen schätzen. Damit verdiene ich mein Geld.

Natürlich bin ich auch für den Start eines solchen Projektes verantwortlich. Und Optimierung für Suchmaschinen ist ein Bestandteil dessen. Selbstverständlich gibt es bei meinen B2B- und B2C-Projekten eine Sitemap. Selbstverständlich gibt es hochwertige externe Links auf die Startseite.

Damit alleine, also dem Umstand, dass man nur via externem Link in die SuMa kommt, statt schlicht ein neues Projekt bei den SuMas anmelden zu können (und zwar richtig nicht nur gefaked), könnte ich ja noch leben. Wobei mir den Sinn und Zweck eines Artikelverzeichnisses oder eines Webkataloges oder einer Topliste noch niemand erklären konnte. IMO ist das SuMa-Spam in seiner reinsten Form.

Aber das die Unterseiten eines Projektes, auch wenn Sie über die Sitemap verlinkt sind erstmal nicht in den Index kommen, sondern erst via SuMa-Spam (Artikelverzeichnisse, Webkataloge, Toplisten, andere Webprojekte) verlinkt sein müssen, damit diese in den Index kommen, das ist und bleibt Unsinn. Wenn ich SuMa-Spam bemühen muss um ordentlichen Content in die SuMa zu bekommen, weil die rumzickt um SuMa-Spam zu vermeiden, beisst sich die Katze in den Schwantz. Wir reden hier nicht von 100.000 Unterseiten sondern von weniger als 1000 Seiten mit unique Content.
Daher kann ich das Argument
Aber das Prinzip: Wenige externe Links => Wenige Seiten im Index finde ich nachvollziehbar und logisch.
auch nicht teilen. Die Zahl der Links hat mit der Qualität des Contents nichts aber auch gar ncihts zu tun.

ralph12345
PostRank 5
PostRank 5
Beiträge: 331
Registriert: 13.06.2006, 12:15
Wohnort: Hamburg

Beitrag von ralph12345 » 08.11.2006, 10:44

Jeder schreit, wenn ein Spammer wieder eine neue Seite in den Index drückt und mit sinnlosem Content die SERPS bevölkert. Google ist natürlich schuld. Aber wehe Google tut was dagegen und man selber ist von der Maßnahme in irgendeiner Weise betroffen. Dann wars auch wieder das böse Google. Was sollen die denn machen?

Es ist nicht möglich, automatisiert Spammer von gutem Content zu trennen, entweder ein Filter für alle oder gar keiner.
Homöopathie
Linktausch welcome

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 08.11.2006, 11:00

hartertobak hat geschrieben:Ich bin weder SEO noch lebe ich von Klicks. Ich bin technischer Dienstleister und erstelle Web-Lösungen für Kunden die individuelle Lösungen schätzen. Damit verdiene ich mein Geld.

Natürlich bin ich auch für den Start eines solchen Projektes verantwortlich. Und Optimierung für Suchmaschinen ist ein Bestandteil dessen. Selbstverständlich gibt es bei meinen B2B- und B2C-Projekten eine Sitemap. Selbstverständlich gibt es hochwertige externe Links auf die Startseite.
Du widersprichst dir, ohne es zu merken. Wenn 'Optimierung für Suchmaschinen' 'gute Positionen' (und nicht bloß technische Erreichbarkeit = kein reines Javascript-Menü) bedeutet, dann bist Du SEO - und genau dagegen hat google etwas.

Bloß weil Du Domains für deine Kunden erstellst, müssen die noch lange nicht vollständig indiziert, gut positioniert oder für google 'unique' sein. Und deine 'hochwertigen externen Links' sind offenbar längst schon nicht mehr hochwertig, sie werden mit jedem Kundenprojekt, das Du dort verlinkst, schwächer.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag