Whitehat mal anders
Verfasst: 03.01.2011, 14:38
Hallo comm!
Ich beschäftige mich zwischenzeitlich ein wenig mit Whitehat-Optimierung.
So wirklich verstehen kann ich es aber nicht. So wie ich es bis jetzt verstehe bedeutet Whitehat in der Fachpraxis, guten Content zu schreiben, der sich von alleine verlinkt.
Das Google-Prinzip war mal gut, aber ist es auch so gut das man sich blind darauf verlassen kann?
Teilweise sicherlich.
Jetzt habe ich den Gedanken von Whitehat aber mal weiter gesponnen. Im wesentlichen geht es bei Whitehat ja darum, einen Spam-freien, und sehr natürlichen Backlinkaufbau zu erhalten. Das finde ich so weit eigentlich recht gut, weshalb ich momentan versuche mir eine Methode zu überlegen, wie man das auch praktisch umsetzen kann.
Jetzt kann man sich natürlich lang und breit darüber streiten, was ein natürlicher Backlink Aufbau eigentlich ist. Aber ich will versuchen ein mal einen anderen Weg zu gehen.
Meine Idee sähe im Detail so aus, das man vor der Planung des Backlinkaufbaus fleißig Recherche betreibt, auf allerlei Portalen, Verzeichnissen, Blogdiensten et cetera (von allem die 5 einschlägigsten - vom User-Aufkommen her), und aus dem Ergebnis der Recherche errechnet, aus wie viel Teilen jeder Projektform zu meinem Linkaufbau gehören, damit dieser natürlich wirkt.
Ausgangsbasis dieser Theorie ist, das Google Projektarten einstufen kann, und somit ein zwar genaueres und komplexeres System zur Einstufung hat/haben könnte. Trotzdem vielleicht aber wirklich den Faktor "Natürlichkeit" im Ranking berücksichtigt.
Im wesentlichen ist die Theorie vermutlich großer schmarn, aber auch Commis die mir das bestätigen sind willkommen. Es würde mich eben interessieren was ihr davon haltet. SEO-Ente oder eine mögliche (aktive) Form der Whitehat-Optmimierung?
Ich beschäftige mich zwischenzeitlich ein wenig mit Whitehat-Optimierung.
So wirklich verstehen kann ich es aber nicht. So wie ich es bis jetzt verstehe bedeutet Whitehat in der Fachpraxis, guten Content zu schreiben, der sich von alleine verlinkt.
Das Google-Prinzip war mal gut, aber ist es auch so gut das man sich blind darauf verlassen kann?
Teilweise sicherlich.
Jetzt habe ich den Gedanken von Whitehat aber mal weiter gesponnen. Im wesentlichen geht es bei Whitehat ja darum, einen Spam-freien, und sehr natürlichen Backlinkaufbau zu erhalten. Das finde ich so weit eigentlich recht gut, weshalb ich momentan versuche mir eine Methode zu überlegen, wie man das auch praktisch umsetzen kann.
Jetzt kann man sich natürlich lang und breit darüber streiten, was ein natürlicher Backlink Aufbau eigentlich ist. Aber ich will versuchen ein mal einen anderen Weg zu gehen.
Meine Idee sähe im Detail so aus, das man vor der Planung des Backlinkaufbaus fleißig Recherche betreibt, auf allerlei Portalen, Verzeichnissen, Blogdiensten et cetera (von allem die 5 einschlägigsten - vom User-Aufkommen her), und aus dem Ergebnis der Recherche errechnet, aus wie viel Teilen jeder Projektform zu meinem Linkaufbau gehören, damit dieser natürlich wirkt.
Ausgangsbasis dieser Theorie ist, das Google Projektarten einstufen kann, und somit ein zwar genaueres und komplexeres System zur Einstufung hat/haben könnte. Trotzdem vielleicht aber wirklich den Faktor "Natürlichkeit" im Ranking berücksichtigt.
Im wesentlichen ist die Theorie vermutlich großer schmarn, aber auch Commis die mir das bestätigen sind willkommen. Es würde mich eben interessieren was ihr davon haltet. SEO-Ente oder eine mögliche (aktive) Form der Whitehat-Optmimierung?