Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Vielleicht weil die neuen Seiten nicht so gut/kompetent sind wie die alten. Ohne zu wissen ob die neuen Projekte besser als die Alten sind, kann man keine Schlussfolgerung machen.Farlif hat geschrieben:dass in allen möglichen Ecken, auch Longtail, Websites und Shops von 4 bis 14 Jahren das Gros der Top 10 ausmachen, nur sehr wenige Ausnahmen dazwischen. Was natürlich neue SEO-Projekte geradezu ad absurdum führt.
Kann das jemand bestätigen?
Korrelation ungleich Kausalität. Die (Unter)Seiten ranken in nicht den Top 10 weil sie alt sind, sondern weil die Domains über viele Jahre Content, Backlinks und somit eine gewisse Autorität aufgebaut haben.Farlif hat geschrieben:Websites und Shops von 4 bis 14 Jahren das Gros der Top 10 ausmachen, nur sehr wenige Ausnahmen dazwischen.
Ich gebe dir ja in der Theorie recht, aber in der Praxis glaube ich nicht, dass Google das macht. Stell dir mal bitte die gigantische Datenmenge vor, die dabei anfällt, wenn ich jede Bewegung von jedem User der über die Suchmaschine kommt tracke und daraus ein Bewegungsprofil erstelle und das dann über Jahre!? Wofür? Nur um einen Baustein mehr zu haben um die Relevanz eines Backlinks zu bewerten? Ich glaube da hat Tante G besseres mit seinen Serverkapazitäten zu tun, als sich mit sowas aufzuhalten. Ich finde da kommt wieder ein wenig die Google = Big Brother Idee durch. Nicht alles was man machen kann, ist in der Praxis auch sinnvoll und nützlich.Google kann sehr gut prüfen ob externe Links auch angeklickt werden.
Bekommst du automatisch mit Google Analytics mitgeliefert. AdSense und Retargeting macht es nicht anders. Google speichert einen großen Teil dieser Datenmenge bereits. Sie sind nicht die größte Suchmaschine geworden, weil Sie sich um Serverkapazitäten sorgen machen müssen. Festplatten kosten heute nicht das, was Sie vor 15 Jahren gekostet haben. Nimm mal die Datenmenge, die du heute auf einer Terrabyte Platte speichern kannst.Stell dir mal bitte die gigantische Datenmenge vor, die dabei anfällt, wenn ich jede Bewegung von jedem User der über die Suchmaschine kommt tracke und daraus ein Bewegungsprofil erstelle
Ja Digga - Dann bist du hier einfach falsch.Ich weiss immer nicht wieso dieses fachsimpeln hier jeden tag auf neue los geht.
Hoffentlich nutzt du Groß- und Kleinschreibung für deine Seiten, denn so wie hier, ist es eher ein Graus für den User deine Meinung zu lesen.Gator hat geschrieben:Ich weiss immer nicht wieso dieses fachsimpeln hier jeden tag auf neue los geht. über dies und das und jenes. baut doch einfach webseiten für die USER und nicht für google. dann ist man da auch auf der richtigen seite.
Dann warst du wohl noch nie bei Wikipedia. Lange Artikel sind kein Merkmal von schlechtem Content. Meist ganz im Gegenteil. Wenn ich jedoch nur 3 Sätze auf einer Seite sehe mit 3 AdSense Blöcken, dann wird mir schlecht.Gator hat geschrieben: wenn ich bei google nach was suche und da auf einer seite nur ellenlage texte sehe weiss ich sofort das dies einer ist der nur auf den traffic von G scharf ist und haue ab da