Seite 1 von 1

Whitehat mal anders

Verfasst: 03.01.2011, 14:38
von DDDTG
Hallo comm!

Ich beschäftige mich zwischenzeitlich ein wenig mit Whitehat-Optimierung.
So wirklich verstehen kann ich es aber nicht. So wie ich es bis jetzt verstehe bedeutet Whitehat in der Fachpraxis, guten Content zu schreiben, der sich von alleine verlinkt.

Das Google-Prinzip war mal gut, aber ist es auch so gut das man sich blind darauf verlassen kann?

Teilweise sicherlich.
Jetzt habe ich den Gedanken von Whitehat aber mal weiter gesponnen. Im wesentlichen geht es bei Whitehat ja darum, einen Spam-freien, und sehr natürlichen Backlinkaufbau zu erhalten. Das finde ich so weit eigentlich recht gut, weshalb ich momentan versuche mir eine Methode zu überlegen, wie man das auch praktisch umsetzen kann.

Jetzt kann man sich natürlich lang und breit darüber streiten, was ein natürlicher Backlink Aufbau eigentlich ist. Aber ich will versuchen ein mal einen anderen Weg zu gehen.

Meine Idee sähe im Detail so aus, das man vor der Planung des Backlinkaufbaus fleißig Recherche betreibt, auf allerlei Portalen, Verzeichnissen, Blogdiensten et cetera (von allem die 5 einschlägigsten - vom User-Aufkommen her), und aus dem Ergebnis der Recherche errechnet, aus wie viel Teilen jeder Projektform zu meinem Linkaufbau gehören, damit dieser natürlich wirkt.

Ausgangsbasis dieser Theorie ist, das Google Projektarten einstufen kann, und somit ein zwar genaueres und komplexeres System zur Einstufung hat/haben könnte. Trotzdem vielleicht aber wirklich den Faktor "Natürlichkeit" im Ranking berücksichtigt.

Im wesentlichen ist die Theorie vermutlich großer schmarn, aber auch Commis die mir das bestätigen sind willkommen. Es würde mich eben interessieren was ihr davon haltet. SEO-Ente oder eine mögliche (aktive) Form der Whitehat-Optmimierung?

Verfasst:
von

Verfasst: 03.01.2011, 15:05
von Hirnhamster
Im wesentlichen ist die Theorie vermutlich großer schmarn, aber auch Commis die mir das bestätigen sind willkommen.
Ich bestätige - ist Schmarrn.

Re: Whitehat mal anders

Verfasst: 03.01.2011, 16:24
von raphael
DDDTG hat geschrieben: Im wesentlichen ist die Theorie vermutlich großer schmarn, aber auch Commis die mir das bestätigen sind willkommen.
Jep, iss Schmarrn.

Falls du mehrhaben willst als die Bestätigung:
Schau dass Onpage alles OK ist und mach Linkaufbau mit allem was halbwegs gut passt. Aber lass die Finger von automastisiertem Zeug, kauf keine Links auf Seiten auf denen steht: "Hier gibt es billige Superlinks", meide Porno-, Casino- und Medikamentenseiten, setz keine thematisch total unpassenden Footerlinks, versuch nicht die Programmierer von Google mit deinen Fachkentnissen auszutrixen, verzichte auf DC, mach einen Bogen alles was nach Spam riecht, schmeckt oder sich auch nur entfernt so anhört und du wirst gute Ergebnisse kriegen.

Mit diesem Rezeptkatalog bist du so sehr hellgrau unterwegs, dass G. nicht meckern wird.

Verfasst:
von

Verfasst: 03.01.2011, 16:25
von UweT

Meine Idee sähe im Detail so aus, das man vor der Planung des Backlinkaufbaus fleißig Recherche betreibt, auf allerlei Portalen, Verzeichnissen, Blogdiensten et cetera (von allem die 5 einschlägigsten - vom User-Aufkommen her), und aus dem Ergebnis der Recherche errechnet, aus wie viel Teilen jeder Projektform zu meinem Linkaufbau gehören, damit dieser natürlich wirkt.

Ausgangsbasis dieser Theorie ist, das Google Projektarten einstufen kann, und somit ein zwar genaueres und komplexeres System zur Einstufung hat/haben könnte. Trotzdem vielleicht aber wirklich den Faktor "Natürlichkeit" im Ranking berücksichtigt.
Recherche im Vorfeld eines Linkaufbau macht immer Sinn. Wenn man die Verlinkungen des direkten Umfelds (Mitbewerber, ähnliche Produkte und Inhalte) analysiert, um daraus die Natürlichkeit in Sachen Backlinks für das geplante "Projekt" zu ermitteln, dann ist das m.E. langfristig ein guter Ansatz für den idealen Linkaufbau-Plan. Das könnte man durchaus auch automatisiert darstellen lassen.

...und ja Google kann Projektarten einstufen, Google mal nach "thin affiliate" ;)

Verfasst: 03.01.2011, 16:55
von DDDTG
tbone78 hat geschrieben: ...und ja Google kann Projektarten einstufen, Google mal nach "thin affiliate" ;)
Ist mir bewusst :)

Ich frage mich jetzt nur, ob Google diese "Fähigkeit" auch im Ranking einfließen lässt. Ich meine, irgendwie müssen die 600 Ranking Faktoren ja zu Stande kommen, und im Onpage Bereich lässt sich das nicht einbringen bzw. ist es vollkommen Banane ob Blog oder Website. Könnte das also vielleicht doch ein Faktor bei der Offpage Optimierung sein?

Ich will mit der obigen Theorie im übrigen nicht sagen, das sie den "normalen" Backlinkaufbau ersetzen soll. Ich könnte mir aber vorstellen das je mehr man sich Mühe gibt an einen "originalen", natürlichen Aufbau heran zu kommen, es unwahrscheinlicher wird, das ein Key beispielsweise abstürzt.

Für mich selbst brauche ich das nicht, aber insbesondere für Anfänger könnte das interessant sein. Aber wie ich schon vermutet habe, und Hirni stimmt mir da ja zu, ist das wohl reiner Unfug. Back to the Roots :-?

Wenn ich Zeit finde starte ich trotzdem mal einen Feldversuch. Wenn da was brauchbares bei raus kommt gebe ich noch mal bescheid. :roll:

Verfasst: 03.01.2011, 18:48
von mano_negra
du meinst dass nicht zuviele links von nur einer art von website kommen? oder wie?

man versucht doch immer einen möglichst natürlich aufbau nachzuahmen, das ist ja jetzt nicht gerade deine erfindung.

bin mir aber nicht sicher ob ich dich richtig verstehe...

Verfasst: 03.01.2011, 20:19
von Hirnhamster
[...]irgendwie müssen die 600 Ranking Faktoren ja zu Stande kommen,[...]
200 ;)

Das Problem bei deiner "Theorie" ist schon allein die Tatsache, dass ein "natürliches Linkbild" nicht bei allen Webseiten gleich ist. Geh zum Beispiel mal von Firmenwebseiten aus. Die werden auch häufig mal aus Onlinemagazinen etc. verlinkt während das bei "normalen" Webseiten so gut wie nie der Fall ist. Deshalb kann ich mir auch nicht vorstellen, dass Google das in irgendeiner Art und Weise positiv oder negativ bewerten sollte.

Verfasst: 03.01.2011, 20:30
von PaulWuerfel
So ganz unrecht hast du mit der theorie glaube ich nicht. Nur wenn du ganz "braver whitehat mässig" Deine Seiten verlinkst machst Du das wohl eh automatisch. Zumindest was die stärke der Links angeht.

Nach dem Motto "erstmal ein paar schnelle Bookmarks drauf..."

Ich glaube aber mit dem natürliche Linkaufbau ist mehr die Verteilung der BL auf die einzelnen Seite gemeint....

Verfasst: 03.01.2011, 20:30
von DDDTG
Hirnhamster hat geschrieben:
[...]irgendwie müssen die 600 Ranking Faktoren ja zu Stande kommen,[...]
200 ;)

Das Problem bei deiner "Theorie" ist schon allein die Tatsache, dass ein "natürliches Linkbild" nicht bei allen Webseiten gleich ist. Geh zum Beispiel mal von Firmenwebseiten aus. Die werden auch häufig mal aus Onlinemagazinen etc. verlinkt während das bei "normalen" Webseiten so gut wie nie der Fall ist. Deshalb kann ich mir auch nicht vorstellen, dass Google das in irgendeiner Art und Weise positiv oder negativ bewerten sollte.
Ich glaube wir reden an einander vorbei ...
Meine Idee sähe im Detail so aus, das man vor der Planung des Backlinkaufbaus fleißig Recherche betreibt, auf allerlei Portalen, Verzeichnissen, Blogdiensten et cetera (von allem die 5 einschlägigsten - vom User-Aufkommen her), und aus dem Ergebnis der Recherche errechnet, aus wie viel Teilen jeder Projektform zu meinem Linkaufbau gehören, damit dieser natürlich wirkt.
Ich meine eine Recherche aller bekannten Seiten-Typen. Dazu zählen auch Online-Magazine...

Idee = Präsents des Haupt-Keywords auf allen Projekt-Typen, und daraus dann das Verhältnis auf den Backlink-Aufbau übertragen. Dazu könnte man beispielsweise unter einem Keyword die Ergebnisse 1 bis 100 ab klappern, und alle Seiten in Typen einordnen, woraus sich wiederum das Verhältnis des Backlinkaufbaus ergibt. Very komplikated :)

Ich hab schon verstanden das die Idee unfug ist. Wollte nur noch mal richtig stellen, wie ich das eigentlich meine.

Verfasst: 04.01.2011, 08:18
von daberlo
Nutze die Zeit für die Schaffung von Content. Nimm aber (diesmal) den Content für Menschen und nicht für Google. "Weißer" gehts gar nicht...und es bringt viel geilere Links.

Re: Whitehat mal anders

Verfasst: 04.01.2011, 09:48
von Lord Pixel
DDDTG hat geschrieben:So wie ich es bis jetzt verstehe bedeutet Whitehat in der Fachpraxis, guten Content zu schreiben, der sich von alleine verlinkt.
Das Google-Prinzip war mal gut, aber ist es auch so gut das man sich blind darauf verlassen kann?
Vor drei Jahren hätte ich dir noch zugestimmt, dass man in vielen Bereichen alleine mit hervorragenden Content viele gute Links bekommen kann. Mittlerweile ist das aber rein subjektiv gefühlt viel schwieriger geworden. Natürlich gibt es auch heute noch immer gelegentlich, aber wenn du eine Konkurrenz mit aktivem Linkaufbau hast, wird es schwierig bis unmöglich (je nach Bereich und SEO-Kenntnissen deiner Konkurrent).

Guter Content ist immer eine hervorragende Basis - es kommen ab und zu von selbst Links, aber auch bei allen aktiven Linkaufbau-Methoden hilft es, weil man mit einer guten Seite auch eher Linkpartner besser gewinnen kann. Von spammigen Methoden, kostspieligem Linkkauf und dubiosen Linktauschpartnern würde ich Abstand halten. Aber auch mit guten Content solltest du begleitende Maßnahmen setzen - schreib aktiv Leute an, die deinen Content vielleicht freiwillig verlinken, eventuell auch mit einem kleinen Anreiz verbundenn, und baue dir gute Kontakte auf. Je nach Thema kann auch die Präsenz in Social Media Kanälen helfen.

Whitehat bedeutet für mich sicher nicht, dass man nur noch Content produziert und abseits davon tatenlos darauf wartet, dass jemand mal aus eigener Initiative auf dich verlink. Für mich bedeutet Whitehat nur, dass jeder erhaltene Link auch als ehrliche Empfehlung einer anderen Person gemeint ist ...