Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Ich bestätige - ist Schmarrn.Im wesentlichen ist die Theorie vermutlich großer schmarn, aber auch Commis die mir das bestätigen sind willkommen.
Jep, iss Schmarrn.DDDTG hat geschrieben: Im wesentlichen ist die Theorie vermutlich großer schmarn, aber auch Commis die mir das bestätigen sind willkommen.
Recherche im Vorfeld eines Linkaufbau macht immer Sinn. Wenn man die Verlinkungen des direkten Umfelds (Mitbewerber, ähnliche Produkte und Inhalte) analysiert, um daraus die Natürlichkeit in Sachen Backlinks für das geplante "Projekt" zu ermitteln, dann ist das m.E. langfristig ein guter Ansatz für den idealen Linkaufbau-Plan. Das könnte man durchaus auch automatisiert darstellen lassen.
Meine Idee sähe im Detail so aus, das man vor der Planung des Backlinkaufbaus fleißig Recherche betreibt, auf allerlei Portalen, Verzeichnissen, Blogdiensten et cetera (von allem die 5 einschlägigsten - vom User-Aufkommen her), und aus dem Ergebnis der Recherche errechnet, aus wie viel Teilen jeder Projektform zu meinem Linkaufbau gehören, damit dieser natürlich wirkt.
Ausgangsbasis dieser Theorie ist, das Google Projektarten einstufen kann, und somit ein zwar genaueres und komplexeres System zur Einstufung hat/haben könnte. Trotzdem vielleicht aber wirklich den Faktor "Natürlichkeit" im Ranking berücksichtigt.
Ist mir bewussttbone78 hat geschrieben: ...und ja Google kann Projektarten einstufen, Google mal nach "thin affiliate"
200[...]irgendwie müssen die 600 Ranking Faktoren ja zu Stande kommen,[...]
Ich glaube wir reden an einander vorbei ...Hirnhamster hat geschrieben:200[...]irgendwie müssen die 600 Ranking Faktoren ja zu Stande kommen,[...]
Das Problem bei deiner "Theorie" ist schon allein die Tatsache, dass ein "natürliches Linkbild" nicht bei allen Webseiten gleich ist. Geh zum Beispiel mal von Firmenwebseiten aus. Die werden auch häufig mal aus Onlinemagazinen etc. verlinkt während das bei "normalen" Webseiten so gut wie nie der Fall ist. Deshalb kann ich mir auch nicht vorstellen, dass Google das in irgendeiner Art und Weise positiv oder negativ bewerten sollte.
Ich meine eine Recherche aller bekannten Seiten-Typen. Dazu zählen auch Online-Magazine...Meine Idee sähe im Detail so aus, das man vor der Planung des Backlinkaufbaus fleißig Recherche betreibt, auf allerlei Portalen, Verzeichnissen, Blogdiensten et cetera (von allem die 5 einschlägigsten - vom User-Aufkommen her), und aus dem Ergebnis der Recherche errechnet, aus wie viel Teilen jeder Projektform zu meinem Linkaufbau gehören, damit dieser natürlich wirkt.
Vor drei Jahren hätte ich dir noch zugestimmt, dass man in vielen Bereichen alleine mit hervorragenden Content viele gute Links bekommen kann. Mittlerweile ist das aber rein subjektiv gefühlt viel schwieriger geworden. Natürlich gibt es auch heute noch immer gelegentlich, aber wenn du eine Konkurrenz mit aktivem Linkaufbau hast, wird es schwierig bis unmöglich (je nach Bereich und SEO-Kenntnissen deiner Konkurrent).DDDTG hat geschrieben:So wie ich es bis jetzt verstehe bedeutet Whitehat in der Fachpraxis, guten Content zu schreiben, der sich von alleine verlinkt.
Das Google-Prinzip war mal gut, aber ist es auch so gut das man sich blind darauf verlassen kann?