Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google verarscht uns! Texte bei Google nicht zu finden!

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
kammerjaeger
PostRank 6
PostRank 6
Beiträge: 395
Registriert: 18.09.2006, 21:21
Wohnort: Köln

Beitrag von kammerjaeger » 19.12.2007, 10:49

Habt Geduld, der Content wird bald wieder einbezogen.

Habe genau das Gleiche die letzten drei Wochen erlebt, indexierte Seiten, Text im Cache - aber "irgendwas aus dem Content" als Suchanfrage fand nix.

Irgend wann funktionierte es wieder (bei unverändertem Cache). "Irgend wann" war ein Zeitraum von ein paar Stunden bis zu ein paar Tagen.

Inzwischen läuft wieder alles.... alle Texte sind nicht nur im Cache sondern werden auch über Phrasen aus dem Inhalt gefunden.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Frusti
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 05.05.2007, 10:00

Beitrag von Frusti » 19.12.2007, 10:56

Ich nehme Deine Entschuldigung natürlich an, muss aber leider feststellen das wir aneinander vorbeireden.
Nur weil du jetzt noch nicht betroffen bist
So, jetzt zum dritten und letzten mal: Ich bin betroffen.
wie auch Du, haben wir keinen Fehler in den Seiten
Grmmpf muss jetzt wieder schreiben was ich geschrieben habe?
Ist Dein Unique-Content seit jahren auf Deiner Hp aber nicht in Google? ....Wenn ja, hast Du ein Onpage Problem.
Nochmal in Wortdreh sicher:
Angenommen jemand hat Unique-Content seit Jahren auf seiner (starken) HP, dass nicht indexiert wird. Bist Du tatsächlich der Meinung Google hat einen Fehler ?

grebell
PostRank 4
PostRank 4
Beiträge: 135
Registriert: 28.10.2005, 09:37

Beitrag von grebell » 19.12.2007, 10:58

kammerjaeger Du meinst also, dass es sich um einen Fehler bei Google handeln muss und nicht um irgendein Filter oder Ähnliches und dass die Inhalte "zeitnah" ohne ein Zutun von Außen wieder von Google in die Bewertung mit einfließen?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

marc77
PostRank 8
PostRank 8
Beiträge: 849
Registriert: 22.05.2007, 21:41

Beitrag von marc77 » 19.12.2007, 11:08

@Frusti:

ok, schön. Danke!
Also > Angenommen jemand hat Unique-Content seit Jahren auf seiner (starken) HP, dass nicht indexiert wird. Bist Du tatsächlich der Meinung Google hat einen Fehler ?

Natürlich bin ich der Meinung, wenn jemand seit Jahren die unique texte nicht in den index bekommt hat er entweder keine Links und seine Seite ist eine Insel oder die seite hat eine Navigationsstruktur mit einer session ID von 1000 Zeichen oder irgendwelche onklick Java Strukturen aller couleur oder ist in Flash :-?

Für mich dient dieser Thread leglich Meinungen zu hören. Ich weiss, dass niemand die Lösung kennt ausser google und selbst die, denke ich wissen es teilweise nicht 100%. ich würd nur gerne verstehe, warum mein content im Zufallsverfahren gelistet wird und ich auf manche schon seit 1 Monat warte. Ich würde mir selbst den Schuh anziehen und sagen, ich bin ne contentnull oder die texte wären einfach schlecht verlinkt. Jedoch sind es wie gesagt bis zu 80seitige Diplomarbeiten. Ich hab sogar 2 Edu links drauf. Trotzdem frisst der die teile nicht. Wenn es morgen wieder geht, hätte ich trotzdem gerne gewusst, welcher Filter hier verantwortlich ist...denn wenn man es seit 3 jahren gewohnt ist, dass man schnell auf trends reagieren kann in dem man content schreibt und dann einen monat warten muss verliert man die lust!

Liebe grüße

MikeK
PostRank 6
PostRank 6
Beiträge: 343
Registriert: 08.07.2006, 13:30
Wohnort: Düsseldorf

Beitrag von MikeK » 19.12.2007, 11:12

Ich denke Google hat gerade ein grundsätzliches Problem mit seinem Cache! Er ist nämlich leer (oder spukt zumindest im Moment nichts mehr aus): https://www.abakus-internet-marketing.d ... 50737.html

Schwede
PostRank 7
PostRank 7
Beiträge: 495
Registriert: 09.10.2005, 12:41

Beitrag von Schwede » 19.12.2007, 11:13

Hallo,

ich selber bin zu grün (ohne dabei ein Horn zu haben), um den Inhalt folgenden Links wirklich beurteilen zu können

https://www.tameco.eu/seo-blog/12112007 ... ungen.html

Könnte das ansatzweise etwas mit dieser Problematik zu tun haben?

kammerjaeger
PostRank 6
PostRank 6
Beiträge: 395
Registriert: 18.09.2006, 21:21
Wohnort: Köln

Beitrag von kammerjaeger » 19.12.2007, 11:13

Also ich glaub nicht an einen Fehler, ich könnte mir eher vorstellen, dass das technische Ursachen hat.... beispielsweise wenn G00GLE riesige Datenbestände aufräumt. ..."aufräumt" aber im Sinne von Ordnung machen und nicht im Sinne von wegsortieren.

Falls solche riesigen Datenmengen bewegt werden, müssen Daten manchmal "zwischengelagert" werden, wo Sie vielleicht in Suchabfragen eine Zeitlang nicht mit einbezogen werden können, die Cache Version aber trotzdem Verfügbar ist, weil beim Cache ja nicht erst was sortiert wird (wie bei den Suchergebnissen), da der ja aus sortierten Listen abgefragt wird.

marc77
PostRank 8
PostRank 8
Beiträge: 849
Registriert: 22.05.2007, 21:41

Beitrag von marc77 » 19.12.2007, 11:32

sehr gut kammerjaeger..in diese richtung denke ich auch..eine art Syncro Service mit Zwischenlagerung...

grebell
PostRank 4
PostRank 4
Beiträge: 135
Registriert: 28.10.2005, 09:37

Beitrag von grebell » 19.12.2007, 11:32

aber genau das könnte das Problem auch sein:

https://www.tameco.eu/seo-blog/12112007 ... ungen.html

Alles komplett geändert, eingenständiger Text, garantiert kein DC, in der Beschreibung bei Google und im Cache schon das Neue drin, aber in den Suchergebnisse nicht zu finden!

Wenn das tatsächlich der Fall ist, dann darf man seine Seite nicht im vollen Maße überarbeiten, egal aus welchem Grund, sei es um auf Contentklauer zu reagieren, oder ähnliches, denn Deine Seite wird für die nächste Zeit nicht bei den Resultaten bei Google mit berücksichtigt! Das ist doch Scheiße, oder?

Frusti
PostRank 4
PostRank 4
Beiträge: 168
Registriert: 05.05.2007, 10:00

Beitrag von Frusti » 19.12.2007, 11:36

Klingt plausibel was Kammerjäger schreibt, hat aber einen Haken:
Es trifft nicht auf allen Webseiten zu bzw. nur bei manchen.

Gerade vor 10 Minuten habe ich einen Artikel auf Projekt A veröffentlicht. Der ist samt Content im Index, wie immer. Bei Projekt B sind Artikel seit Wochen online aber nur Titel + Url im Index. Nicht der Content, leider auch wie immer.
Der einzige nennenswerte Unterschied bei beiden Projekten ist der Tamagotchi-Effekt :o
Bei Projekt A wird der Google-Bot kontinuierlich und oft zur der gleichen Zeit gefüttert. Der ist sozusagen konditioniert und gut erzogen.
Bei Projekt B werden die Artikel eher unregelmässig gesetzt, mal mehrere Tagen nix.
Ich bin mir relativ sicher das dies ein Faktor sein kann, eine art Vollständiger-Index-Prioritätenfilter im Rahmen der Google-Aktualität.

marc77
PostRank 8
PostRank 8
Beiträge: 849
Registriert: 22.05.2007, 21:41

Beitrag von marc77 » 19.12.2007, 11:43

richtig, es sind nicht alle Seiten betroffen...und auch nicht alle texte..bzw. urls...

@Tamagotchi Effekt:

ich sehe da ähnliches. jedoch merke ich das nur an einer seite. Wenn ich text auf einer seite erstelle. welche bereits seit 1 jahr im index ist wird der text innerhalb von stunden im index gerankt. ist es aber eine neue URL mit neuem Text. Dauert es. bzw. die seite kommt in den index fliegt aber wieder nach 2 Tagen um dann irgendwann nochmals zu kommen oder halt auch nicht. jedoch ist vielleicht 1 monat hier zu kurz...Index-Prioritätenfilter im Rahmen der Google-Aktualität mmhhh :roll:

ich hab auch festgestellt, dass teilweise nur die Unterseiten mit content nicht ranken, welche für 2 Tagen in den Top 10 waren. Vielleicht rechnet google aus, dass aufgrund der domainstärke die unterseite in die top30 kommen würde und setzt dann erstmal ein wartezeit an...damit starke seiten nicht die serps überfluten...dies sind aber mehr gedanken..ich glaub daran nicht wirklich. wäre ja kontraproduktiv und vor allem wann ist eine seite davon betroffen...
Zuletzt geändert von marc77 am 19.12.2007, 12:27, insgesamt 1-mal geändert.

grebell
PostRank 4
PostRank 4
Beiträge: 135
Registriert: 28.10.2005, 09:37

Beitrag von grebell » 19.12.2007, 12:20

Also doch ein Abzocke-Filter?

https://www.tameco.eu/seo-blog/12112007 ... ungen.html

Wir haben hier festgestellt, dass es so ziemlich alles, was neu ist, betrifft. Wenn es aber echt eine Art Filter ist, dann kann der Sinn des Ganzen nur eines Bedeuten:

Noch mehr Kohle für Google, denn neue Seiten kommen mit hart umkämpften Begriffen nicht so schnell rein, und das schon seit Anfang 2004, da Sanbox.

Und jetzt trifft es alle, die bereits alte Domains haben, die auch schon richtig fett im Index waren, gut verlinkt waren und wenn die jetzt radikal überarbeitet werden, dann werden auch die wie die ganz neuen Domains nicht berücksichtigt!

Hoffe zwar auch immer noch ein wenig, dass es so ist wie marc77 meint, große Datenmengen hin und her Schaufelei und dass es früher oder später wieder in Ordnung kommt, doch zählen kann man wegen dem oben beschriebenen Patent nicht darauf, dass es sich wirklich um eine Art Fehler handelt und es wieder behoben wird!

woddy
PostRank 3
PostRank 3
Beiträge: 84
Registriert: 09.07.2006, 13:11

Beitrag von woddy » 19.12.2007, 12:44

Hm, neu ist dann doch auch der Artikel hier:
https://www.google.de/search?q=dass+auf ... DE228DE228
So sollte der doch nicht im Cache sein, oder - hab ich was falsch verstanden: sorry!

GreenHorn
PostRank 10
PostRank 10
Beiträge: 4487
Registriert: 19.12.2005, 15:01

Beitrag von GreenHorn » 19.12.2007, 12:46

Schwede hat geschrieben:ich selber bin zu grün (ohne dabei ein Horn zu haben)...
Alter Schwede...

Ich gehe auch in Richtung der Überlegung von Kammerjäger ---> Reinemachen. Kann wie ich schon gesagt habe unterschiedliche Auslöser haben und betrifft wohl immer gewisse keyword-ranches, da werden komplette Datenbestände recht unauffällig aus den Serps genommen (begründet die enormen Schwankungen der Ergebniszahlen), einer Tiefenprüfung unterzogen und dann wieder "bereinigt und neu sortiert" nach Tagen oder Wochen zurück in den Index geschoben.
Zuletzt geändert von GreenHorn am 19.12.2007, 12:47, insgesamt 1-mal geändert.

marc77
PostRank 8
PostRank 8
Beiträge: 849
Registriert: 22.05.2007, 21:41

Beitrag von marc77 » 19.12.2007, 12:47

ja falsch verstanden, bitte nochmal alles von vorne! nicht jede domain ist betroffen!

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag