Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Whitehat mal anders

Ein wichtiges Thema für einige Suchmaschinen. Dieses Unterforum dient zur Beantwortung von Fragen rund um das Thema Link-Marketing, Linkbaits, Widgets, Ideen die Linkerati zu finden und wecken!

(Kein Link Farm / Linktausch Börse usw.)
Neues Thema Antworten
DDDTG
PostRank 6
PostRank 6
Beiträge: 340
Registriert: 02.10.2010, 13:39

Beitrag von DDDTG » 03.01.2011, 14:38

Hallo comm!

Ich beschäftige mich zwischenzeitlich ein wenig mit Whitehat-Optimierung.
So wirklich verstehen kann ich es aber nicht. So wie ich es bis jetzt verstehe bedeutet Whitehat in der Fachpraxis, guten Content zu schreiben, der sich von alleine verlinkt.

Das Google-Prinzip war mal gut, aber ist es auch so gut das man sich blind darauf verlassen kann?

Teilweise sicherlich.
Jetzt habe ich den Gedanken von Whitehat aber mal weiter gesponnen. Im wesentlichen geht es bei Whitehat ja darum, einen Spam-freien, und sehr natürlichen Backlinkaufbau zu erhalten. Das finde ich so weit eigentlich recht gut, weshalb ich momentan versuche mir eine Methode zu überlegen, wie man das auch praktisch umsetzen kann.

Jetzt kann man sich natürlich lang und breit darüber streiten, was ein natürlicher Backlink Aufbau eigentlich ist. Aber ich will versuchen ein mal einen anderen Weg zu gehen.

Meine Idee sähe im Detail so aus, das man vor der Planung des Backlinkaufbaus fleißig Recherche betreibt, auf allerlei Portalen, Verzeichnissen, Blogdiensten et cetera (von allem die 5 einschlägigsten - vom User-Aufkommen her), und aus dem Ergebnis der Recherche errechnet, aus wie viel Teilen jeder Projektform zu meinem Linkaufbau gehören, damit dieser natürlich wirkt.

Ausgangsbasis dieser Theorie ist, das Google Projektarten einstufen kann, und somit ein zwar genaueres und komplexeres System zur Einstufung hat/haben könnte. Trotzdem vielleicht aber wirklich den Faktor "Natürlichkeit" im Ranking berücksichtigt.

Im wesentlichen ist die Theorie vermutlich großer schmarn, aber auch Commis die mir das bestätigen sind willkommen. Es würde mich eben interessieren was ihr davon haltet. SEO-Ente oder eine mögliche (aktive) Form der Whitehat-Optmimierung?

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 03.01.2011, 15:05

Im wesentlichen ist die Theorie vermutlich großer schmarn, aber auch Commis die mir das bestätigen sind willkommen.
Ich bestätige - ist Schmarrn.
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

raphael
PostRank 8
PostRank 8
Beiträge: 970
Registriert: 14.04.2005, 12:19
Wohnort: Berlin

Beitrag von raphael » 03.01.2011, 16:24

DDDTG hat geschrieben: Im wesentlichen ist die Theorie vermutlich großer schmarn, aber auch Commis die mir das bestätigen sind willkommen.
Jep, iss Schmarrn.

Falls du mehrhaben willst als die Bestätigung:
Schau dass Onpage alles OK ist und mach Linkaufbau mit allem was halbwegs gut passt. Aber lass die Finger von automastisiertem Zeug, kauf keine Links auf Seiten auf denen steht: "Hier gibt es billige Superlinks", meide Porno-, Casino- und Medikamentenseiten, setz keine thematisch total unpassenden Footerlinks, versuch nicht die Programmierer von Google mit deinen Fachkentnissen auszutrixen, verzichte auf DC, mach einen Bogen alles was nach Spam riecht, schmeckt oder sich auch nur entfernt so anhört und du wirst gute Ergebnisse kriegen.

Mit diesem Rezeptkatalog bist du so sehr hellgrau unterwegs, dass G. nicht meckern wird.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

UweT
PostRank 10
PostRank 10
Beiträge: 5601
Registriert: 03.01.2003, 00:07

Beitrag von UweT » 03.01.2011, 16:25


Meine Idee sähe im Detail so aus, das man vor der Planung des Backlinkaufbaus fleißig Recherche betreibt, auf allerlei Portalen, Verzeichnissen, Blogdiensten et cetera (von allem die 5 einschlägigsten - vom User-Aufkommen her), und aus dem Ergebnis der Recherche errechnet, aus wie viel Teilen jeder Projektform zu meinem Linkaufbau gehören, damit dieser natürlich wirkt.

Ausgangsbasis dieser Theorie ist, das Google Projektarten einstufen kann, und somit ein zwar genaueres und komplexeres System zur Einstufung hat/haben könnte. Trotzdem vielleicht aber wirklich den Faktor "Natürlichkeit" im Ranking berücksichtigt.
Recherche im Vorfeld eines Linkaufbau macht immer Sinn. Wenn man die Verlinkungen des direkten Umfelds (Mitbewerber, ähnliche Produkte und Inhalte) analysiert, um daraus die Natürlichkeit in Sachen Backlinks für das geplante "Projekt" zu ermitteln, dann ist das m.E. langfristig ein guter Ansatz für den idealen Linkaufbau-Plan. Das könnte man durchaus auch automatisiert darstellen lassen.

...und ja Google kann Projektarten einstufen, Google mal nach "thin affiliate" ;)

DDDTG
PostRank 6
PostRank 6
Beiträge: 340
Registriert: 02.10.2010, 13:39

Beitrag von DDDTG » 03.01.2011, 16:55

tbone78 hat geschrieben: ...und ja Google kann Projektarten einstufen, Google mal nach "thin affiliate" ;)
Ist mir bewusst :)

Ich frage mich jetzt nur, ob Google diese "Fähigkeit" auch im Ranking einfließen lässt. Ich meine, irgendwie müssen die 600 Ranking Faktoren ja zu Stande kommen, und im Onpage Bereich lässt sich das nicht einbringen bzw. ist es vollkommen Banane ob Blog oder Website. Könnte das also vielleicht doch ein Faktor bei der Offpage Optimierung sein?

Ich will mit der obigen Theorie im übrigen nicht sagen, das sie den "normalen" Backlinkaufbau ersetzen soll. Ich könnte mir aber vorstellen das je mehr man sich Mühe gibt an einen "originalen", natürlichen Aufbau heran zu kommen, es unwahrscheinlicher wird, das ein Key beispielsweise abstürzt.

Für mich selbst brauche ich das nicht, aber insbesondere für Anfänger könnte das interessant sein. Aber wie ich schon vermutet habe, und Hirni stimmt mir da ja zu, ist das wohl reiner Unfug. Back to the Roots :-?

Wenn ich Zeit finde starte ich trotzdem mal einen Feldversuch. Wenn da was brauchbares bei raus kommt gebe ich noch mal bescheid. :roll:

mano_negra
PostRank 9
PostRank 9
Beiträge: 2812
Registriert: 23.07.2009, 15:29
Wohnort: la luna

Beitrag von mano_negra » 03.01.2011, 18:48

du meinst dass nicht zuviele links von nur einer art von website kommen? oder wie?

man versucht doch immer einen möglichst natürlich aufbau nachzuahmen, das ist ja jetzt nicht gerade deine erfindung.

bin mir aber nicht sicher ob ich dich richtig verstehe...

Hirnhamster
PostRank 10
PostRank 10
Beiträge: 2997
Registriert: 23.02.2008, 12:56

Beitrag von Hirnhamster » 03.01.2011, 20:19

[...]irgendwie müssen die 600 Ranking Faktoren ja zu Stande kommen,[...]
200 ;)

Das Problem bei deiner "Theorie" ist schon allein die Tatsache, dass ein "natürliches Linkbild" nicht bei allen Webseiten gleich ist. Geh zum Beispiel mal von Firmenwebseiten aus. Die werden auch häufig mal aus Onlinemagazinen etc. verlinkt während das bei "normalen" Webseiten so gut wie nie der Fall ist. Deshalb kann ich mir auch nicht vorstellen, dass Google das in irgendeiner Art und Weise positiv oder negativ bewerten sollte.
Texte/Content schnell und effizient en masse produzieren » Article Wizard «

SEO Grundlagen: SEO Tutorial --- Linkbuilding Fallstudie --- Find me on Google+ and Twitter

PaulWuerfel
PostRank 1
PostRank 1
Beiträge: 4
Registriert: 27.12.2010, 19:56
Wohnort: Königreich Bayern

Beitrag von PaulWuerfel » 03.01.2011, 20:30

So ganz unrecht hast du mit der theorie glaube ich nicht. Nur wenn du ganz "braver whitehat mässig" Deine Seiten verlinkst machst Du das wohl eh automatisch. Zumindest was die stärke der Links angeht.

Nach dem Motto "erstmal ein paar schnelle Bookmarks drauf..."

Ich glaube aber mit dem natürliche Linkaufbau ist mehr die Verteilung der BL auf die einzelnen Seite gemeint....

DDDTG
PostRank 6
PostRank 6
Beiträge: 340
Registriert: 02.10.2010, 13:39

Beitrag von DDDTG » 03.01.2011, 20:30

Hirnhamster hat geschrieben:
[...]irgendwie müssen die 600 Ranking Faktoren ja zu Stande kommen,[...]
200 ;)

Das Problem bei deiner "Theorie" ist schon allein die Tatsache, dass ein "natürliches Linkbild" nicht bei allen Webseiten gleich ist. Geh zum Beispiel mal von Firmenwebseiten aus. Die werden auch häufig mal aus Onlinemagazinen etc. verlinkt während das bei "normalen" Webseiten so gut wie nie der Fall ist. Deshalb kann ich mir auch nicht vorstellen, dass Google das in irgendeiner Art und Weise positiv oder negativ bewerten sollte.
Ich glaube wir reden an einander vorbei ...
Meine Idee sähe im Detail so aus, das man vor der Planung des Backlinkaufbaus fleißig Recherche betreibt, auf allerlei Portalen, Verzeichnissen, Blogdiensten et cetera (von allem die 5 einschlägigsten - vom User-Aufkommen her), und aus dem Ergebnis der Recherche errechnet, aus wie viel Teilen jeder Projektform zu meinem Linkaufbau gehören, damit dieser natürlich wirkt.
Ich meine eine Recherche aller bekannten Seiten-Typen. Dazu zählen auch Online-Magazine...

Idee = Präsents des Haupt-Keywords auf allen Projekt-Typen, und daraus dann das Verhältnis auf den Backlink-Aufbau übertragen. Dazu könnte man beispielsweise unter einem Keyword die Ergebnisse 1 bis 100 ab klappern, und alle Seiten in Typen einordnen, woraus sich wiederum das Verhältnis des Backlinkaufbaus ergibt. Very komplikated :)

Ich hab schon verstanden das die Idee unfug ist. Wollte nur noch mal richtig stellen, wie ich das eigentlich meine.

daberlo
PostRank 4
PostRank 4
Beiträge: 131
Registriert: 24.01.2008, 10:10

Beitrag von daberlo » 04.01.2011, 08:18

Nutze die Zeit für die Schaffung von Content. Nimm aber (diesmal) den Content für Menschen und nicht für Google. "Weißer" gehts gar nicht...und es bringt viel geilere Links.

Lord Pixel
PostRank 7
PostRank 7
Beiträge: 601
Registriert: 24.08.2007, 17:06

Beitrag von Lord Pixel » 04.01.2011, 09:48

DDDTG hat geschrieben:So wie ich es bis jetzt verstehe bedeutet Whitehat in der Fachpraxis, guten Content zu schreiben, der sich von alleine verlinkt.
Das Google-Prinzip war mal gut, aber ist es auch so gut das man sich blind darauf verlassen kann?
Vor drei Jahren hätte ich dir noch zugestimmt, dass man in vielen Bereichen alleine mit hervorragenden Content viele gute Links bekommen kann. Mittlerweile ist das aber rein subjektiv gefühlt viel schwieriger geworden. Natürlich gibt es auch heute noch immer gelegentlich, aber wenn du eine Konkurrenz mit aktivem Linkaufbau hast, wird es schwierig bis unmöglich (je nach Bereich und SEO-Kenntnissen deiner Konkurrent).

Guter Content ist immer eine hervorragende Basis - es kommen ab und zu von selbst Links, aber auch bei allen aktiven Linkaufbau-Methoden hilft es, weil man mit einer guten Seite auch eher Linkpartner besser gewinnen kann. Von spammigen Methoden, kostspieligem Linkkauf und dubiosen Linktauschpartnern würde ich Abstand halten. Aber auch mit guten Content solltest du begleitende Maßnahmen setzen - schreib aktiv Leute an, die deinen Content vielleicht freiwillig verlinken, eventuell auch mit einem kleinen Anreiz verbundenn, und baue dir gute Kontakte auf. Je nach Thema kann auch die Präsenz in Social Media Kanälen helfen.

Whitehat bedeutet für mich sicher nicht, dass man nur noch Content produziert und abseits davon tatenlos darauf wartet, dass jemand mal aus eigener Initiative auf dich verlink. Für mich bedeutet Whitehat nur, dass jeder erhaltene Link auch als ehrliche Empfehlung einer anderen Person gemeint ist ...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag