Seite 1 von 3

Linkaufbau mit, für den User, maskierten Domains...

Verfasst: 03.08.2012, 15:01
von allure
Hey Leute,

ich habe mich über die Suchfunktion fast tot gesucht und nichts zu meinem Anliegen gefunden. Ich kann es mir gar nicht vorstellen das es dazu nichts gibt, aber falls doch dann bitte schließen.

Ich Frage ganz allgemein da ich mit dieser Thematik noch nichts zu tun hatte:

Was hat es mit Links (bzw. Domains von denen Sie kommen) auf sich, die zwar im Google Index sind und vom Crawler verfolgt werden können, ABER der normale User kann die Seiten eben nicht öffnen!

Die Seite lässt sich weder bei Direkteingabe im Browser noch über den Index öffnen. Bei klickt gibt es irgendwann einen Timeout mit einem 500 Internal Server Error. Alle Spider Simulatoren spucken natürlich auch nichts aus.

Wie Blackhat lastig ist ein solchen Vorgehen überhaupt? Gibt es eine Möglichkeit den darauf liegenden Content und die Backlinks doch einzusehen? Kann dieses Vorgehen zum Linkaufbau überhaupt funktionieren? Wäre über jede Antwort zu diesem Thema sehr dankbar.

Verfasst:
von

Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Verfasst: 03.08.2012, 15:11
von analyseninja
Hast du auch ein Beispiel?

Verfasst: 03.08.2012, 15:13
von allure
free51de

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 03.08.2012, 16:06
von ElDiablo
Meinst du nun Short-URL Dienste wie bit.ly oder was genau ist das?

Wenn ja: Ich denke da wird das meiste per 301 gemacht, so dass fast der komplette Linkjuice ankommt. Ansonsten würden Social-Signals über Twitter quasi garnicht funktionieren, denn hier wird immer gekürzt.

Verfasst: 03.08.2012, 16:24
von allure
Ich weiß ja selbst nicht um was es sich dabei handelt. Short URL Dienste wie bit.ly kenne ich nicht. Um eine Weiterleitung kann es sich nicht handeln, da man eben nicht weitergeleitet wird wenn man die URl öffnet.

Ein Unternehmen hat eine Agentur mit Linkaufbau beauftragt, die es genau so umsetzen wie beschrieben mit zb. oben genannter URL und mich erreichte die Frage ist das so in Ordnung? Und mir sagt solch ein Vorgehen eben gar nichts.

Als Beschreibung für dieses Vorgehen habe ich noch:

- Es werden Links automatisch gesetzt sobald eine der registrieren expired Domains von Google aufgerufen wird.

- es wird per random entschieden welche Links wo und wie gesetzt werden

- ebenso wird entschieden welches CMS simuliert wird, wieviele Unterseiten es gibt, wieviele Links eingesetzt werden etc.

Wir reden hier auch nicht von einer kleinen Agentur sondern einer der exklusivsten in Deutschland die pro Monat nicht unter einer 6. stelligen Summe arbeiten.

Ich soll dieses Verfahren aber als dritte neutrale Person bzw. zweiter SEO bewerten. Jedoch kann ich nicht beurteilen wie legal dieses Verfahren ist. Ob es überhaupt nützlich und dem Preis angemessen ist etc. ...

Verfasst: 03.08.2012, 16:43
von Business-Experte
Blackhat, glasklar.
(Falls das überhaupt funktioniert...)

Verfasst: 03.08.2012, 16:46
von ElDiablo
Jeder Unterschied zwischen Mensch und Robot ist schon eine Form von Cloaking.
Wenn es dabei so massiv betrieben wird, dann gibt es früher oder später eins mit der Keule.

Sicher klappen gewisse Blackhat Methoden, aber mehr als ein paar Affiliate-Seiten würde ich mit sowas nun wirklich nicht verheizen. Echte Moneysites einer Brand jedenfalls beschießt man mit sauberen Links und nicht mit automatisiertem Mist.

Es gibt keine SEO Agentur, die erst ab 6 stelligigen Beträgen im Monat arbeitet. Welche Kunden sollte sie haben, wo alle großen Läden Inhouse Teams haben?

Meine Meinung dazu: Die ganze Story ist unsinn oder 10 Jahre alt :roll:

Verfasst: 03.08.2012, 16:47
von Melegrian
Keine Ahnung, wenn ich die oben genannte URL mit site: abfrage, dann kommt mir das eher so vor, als wäre das mal eine Service-Domain gewesen, deren Dienste nur eingestellt wurden und von der Google nun nur noch die Reste listet. Sollte es sich um Blackhat handeln, dann um etwas, wo ich nicht durchblicke:

web.archive.org

Verfasst: 03.08.2012, 19:09
von allure
@ ElDiablo ich kann natürlich keine Namen nennen aber die ganz großen Unternehmen haben zwar Ihre eigenen SEO Teams, aber oft sind diese gar nicht mehr Inhouse sondern sind schon längst ausgegliedert und arbeiten als völlig freie Unternehmenstochter auch für genau diese Unternehmen! So sieht es in der Realität nunmal aus.
Da steckt halt dann etwas komplexeres dahinter als "nur" automatisierter Mist den du kennst. Aber das ist nicht deine Größenordnung, sonst hättest du dir deinen letzten Satz gespaart.


@ Melegrian: Komischerweiße geben diese Reste wirklich Linkpower ab. Wir mussten schon lange testen bei der Größe der Webseiten aber auf einmal linken die verlinkten Keywords...auf alle Fälle blicke ich da auch nicht durch. Deswegen poste ich hier. ;-)

Falls jmd besser mit diesen Methoden vertraut ist oder Möglichkeiten zur Analyse dieser Urls sieht, als her damit ;)

Verfasst: 03.08.2012, 19:48
von Melegrian
Ich möchte hier mit der URL nur keinen "Fingerzeigposting" draus machen, weil das nicht erwünscht ist. Doch wenn ich nach der URL suche, dann erscheinen da alte Verweise wie search.(url).de und grabber.(url).de für Videograbber mindestens in einem Verzeichnis. Somit könnte da auch mal vor Jahren so etwas Ähnliches wie eine kleine Suchmaschine oder eine Pseudo-Suchmaschine unter einer Subdomain gelaufen sein. So lange diese Subdomain aber immer noch in Verzeichnissen verlinkt bleibt, hat Google da aber eventuell noch alte Ergebnisse irgendwo auf Halde zu liegen und die Domain existiert ja noch.

Wie da noch etwas anders geregelt sein könnte, was richtig Blackhat wäre, damit kenne ich mich leider nicht aus. Was aber nicht bedeutet, dass es nicht möglich ist, nur so viel Ahnung habe ich halt nicht in dieser Richtung.

Vorstellen könnte ich mir allenfalls, dass da nur für Bots Weiterleitungen eingerichtet wurden, die aber nicht greifen, wenn der Aufruf über einen Browser erfolgt. Um das auszuprobieren, müsstest Du mal die Domain über irgendein Tool aufrufen.

Aber wenn ich dann sehe, dass Google bei den Treffern
4. Sept. 2008 – https://www.grabber.(url).de/. Download and save videos directly from...
anzeigt, dann denke ich mir einfach, dass das alles nur alter Mist sein wird.

Verfasst: 04.08.2012, 01:05
von Vegas
Macht einen sehr ausgeklügelten Eindruck und die Menge an Domains die ich schnell zuordnen konnte ist schon anständig. Wird nicht der einzige Domaineigentümer sein, den die verwenden. Alles Expireds, thematisch quer durch den Gemüsegarten, im Zweifelsfall alles was Backlinks hat und nicht bei 3 auf den Bäumen ist.

Die Art des (vermuteten) Cloaking ist interessant, denn ich denke hier wird schlicht nur an bekannte Google IPs freigegeben, sonst kommt ein unauffälliger Serverfehler. Statt wie beim normalen Cloaking eine Version für Besucher und Bot, gibt es nur die Version für den Bot. Kommt Google mit der "falschen" IP, hat die Seite eben gerade Probleme. Somit besteht nicht die Gefahr, daß das Cloaking auffliegt.

Ansonsten stelle ich mir das als zentral gesteuertes System vor, Server bekommt die Anfrage, gibt eine virtuelle Seite aus die mit Links bestückt ist. Theoretisch kann man sogar dafür den ursprünglichen Inhalt verwenden, solange davon nichts im Index landet wird es nie jemanden auffallen. Noindex ist ja kein Hindernis für Google die Seite als legitim anzusehen und der Linkjuice fließt munter weiter. Den Wettbewerbern fällt im Zweifelsfall auch nichts auf, denn die Links tauchen sicher in keinem Backlinkcheck auf, höchstens in der WMT?!

Alles nur Spekulation, aber ich denke der Ansatz ist ein virtuelles Netzwerk an "Zombieseiten" zu erstellen, das nur für den Googlebot existiert. Alles nur eine Ente? Möglich, nur sprechen die Denic Daten und die Menge der Domains dagegen.

Mal weitergesponnen: In der Theorie läßt sich so ein System komplett automatisiert aufsetzen. Domains registrieren, mit Inhalten füllen, Links einfügen.

Verfasst: 04.08.2012, 09:17
von Melegrian
@Vegas - Wenn ich Deinen Faden aufgreifen und etwas weiterspinnen würde, dann könnte man aber auch theoretischen 1 Mio Seiten mit DC bestücken, die nur ein Bot zu sehen bekommt, dennoch andere Seiten damit schädigen. Abmahnungen und Klagen könnte es nicht geben, da ja ein Nachweis von Urheberrechtsverletzungen praktisch nicht möglich wäre.

Bei alledem frage ich mich aber, ob Google das nicht merken sollte, weil ja keine echten Zugriffe auf die Seiten erfasst werden könnten?

Verfasst: 04.08.2012, 09:25
von Business-Experte
Ja, aber es fehlen die echten Menschen, die in diesem Zombienetzwerk surfen. Echte Surfer will Google aber zumindest gelegentlich mal auf irgendeine Art und Weise sehen.
Die könnte man zwar mit einem botnetzwerk simulieren, aber spätestens an dieser Stelle ist es schon kein Verstoß gegen die Googlerichtlinien mehr, sondern einfach nur kriminell.

Ich meine, das könnte vor ein paar Jahren mal funktioniert haben, aber heute halte ich Google für schlau genug, darauf nicht mehr hereinzufallen.

Verfasst: 04.08.2012, 13:01
von seonewbie
Für Cloaking müßte aber doch im html Breich Content sein.
Ich sehe nur das:

Code: Alles auswählen

<?xml version="1.0" encoding="UTF-8"?>


<?xml-stylesheet href="chrome&#58;//global/skin/" type="text/css"?>
<?xml-stylesheet href="chrome&#58;//browser/content/newtab/newTab.css" type="text/css"?>
<?xml-stylesheet href="chrome&#58;//browser/skin/newtab/newTab.css" type="text/css"?>

<!DOCTYPE window &#91;
  <!ENTITY % newTabDTD SYSTEM "chrome&#58;//browser/locale/newTab.dtd">
  %newTabDTD;
&#93;>

<xul&#58;window id="newtab-window" xmlns="http&#58;//www.w3.org/1999/xhtml"
            xmlns&#58;xul="http&#58;//www.mozilla.org/keymaster/gatekeeper/there.is.only.xul"
            disablefastfind="true" title="&newtab.pageTitle;">

  <div id="newtab-scrollbox">

    <div id="newtab-vertical-margin">
      <div id="newtab-margin-top"/>

      <div id="newtab-horizontal-margin">
        <div class="newtab-side-margin"/>

        <div id="newtab-grid">
          <div class="newtab-row">
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
          </div>
          <div class="newtab-row">
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
          </div>
          <div class="newtab-row">
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
          </div>
        </div>

        <div class="newtab-side-margin"/>
      </div>

      <div id="newtab-margin-bottom"/>
    </div>
    <input id="newtab-toggle" type="button"/>
  </div>

  <xul&#58;script type="text/javascript;version=1.8"
              src="chrome&#58;//browser/content/newtab/newTab.js"/>
</xul&#58;window>
Für mich sieht das aus als wenn der Content der per XML ausgegeben
wurde einfach nicht verfügbar ist.

Verfasst: 04.08.2012, 13:36
von Melegrian
Schreiben wir hier alle über dieselbe Domain?
Ich erhalte nur: 500 Internal Server Error