Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Linkaufbau mit, für den User, maskierten Domains...

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
allure
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 29.12.2009, 23:29

Beitrag von allure » 03.08.2012, 15:01

Hey Leute,

ich habe mich über die Suchfunktion fast tot gesucht und nichts zu meinem Anliegen gefunden. Ich kann es mir gar nicht vorstellen das es dazu nichts gibt, aber falls doch dann bitte schließen.

Ich Frage ganz allgemein da ich mit dieser Thematik noch nichts zu tun hatte:

Was hat es mit Links (bzw. Domains von denen Sie kommen) auf sich, die zwar im Google Index sind und vom Crawler verfolgt werden können, ABER der normale User kann die Seiten eben nicht öffnen!

Die Seite lässt sich weder bei Direkteingabe im Browser noch über den Index öffnen. Bei klickt gibt es irgendwann einen Timeout mit einem 500 Internal Server Error. Alle Spider Simulatoren spucken natürlich auch nichts aus.

Wie Blackhat lastig ist ein solchen Vorgehen überhaupt? Gibt es eine Möglichkeit den darauf liegenden Content und die Backlinks doch einzusehen? Kann dieses Vorgehen zum Linkaufbau überhaupt funktionieren? Wäre über jede Antwort zu diesem Thema sehr dankbar.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

analyseninja
PostRank 3
PostRank 3
Beiträge: 66
Registriert: 21.04.2011, 08:03

Beitrag von analyseninja » 03.08.2012, 15:11

Hast du auch ein Beispiel?

allure
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 29.12.2009, 23:29

Beitrag von allure » 03.08.2012, 15:13

free51de

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 03.08.2012, 16:06

Meinst du nun Short-URL Dienste wie bit.ly oder was genau ist das?

Wenn ja: Ich denke da wird das meiste per 301 gemacht, so dass fast der komplette Linkjuice ankommt. Ansonsten würden Social-Signals über Twitter quasi garnicht funktionieren, denn hier wird immer gekürzt.

allure
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 29.12.2009, 23:29

Beitrag von allure » 03.08.2012, 16:24

Ich weiß ja selbst nicht um was es sich dabei handelt. Short URL Dienste wie bit.ly kenne ich nicht. Um eine Weiterleitung kann es sich nicht handeln, da man eben nicht weitergeleitet wird wenn man die URl öffnet.

Ein Unternehmen hat eine Agentur mit Linkaufbau beauftragt, die es genau so umsetzen wie beschrieben mit zb. oben genannter URL und mich erreichte die Frage ist das so in Ordnung? Und mir sagt solch ein Vorgehen eben gar nichts.

Als Beschreibung für dieses Vorgehen habe ich noch:

- Es werden Links automatisch gesetzt sobald eine der registrieren expired Domains von Google aufgerufen wird.

- es wird per random entschieden welche Links wo und wie gesetzt werden

- ebenso wird entschieden welches CMS simuliert wird, wieviele Unterseiten es gibt, wieviele Links eingesetzt werden etc.

Wir reden hier auch nicht von einer kleinen Agentur sondern einer der exklusivsten in Deutschland die pro Monat nicht unter einer 6. stelligen Summe arbeiten.

Ich soll dieses Verfahren aber als dritte neutrale Person bzw. zweiter SEO bewerten. Jedoch kann ich nicht beurteilen wie legal dieses Verfahren ist. Ob es überhaupt nützlich und dem Preis angemessen ist etc. ...

Business-Experte
PostRank 8
PostRank 8
Beiträge: 794
Registriert: 05.02.2009, 17:05

Beitrag von Business-Experte » 03.08.2012, 16:43

Blackhat, glasklar.
(Falls das überhaupt funktioniert...)

ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 03.08.2012, 16:46

Jeder Unterschied zwischen Mensch und Robot ist schon eine Form von Cloaking.
Wenn es dabei so massiv betrieben wird, dann gibt es früher oder später eins mit der Keule.

Sicher klappen gewisse Blackhat Methoden, aber mehr als ein paar Affiliate-Seiten würde ich mit sowas nun wirklich nicht verheizen. Echte Moneysites einer Brand jedenfalls beschießt man mit sauberen Links und nicht mit automatisiertem Mist.

Es gibt keine SEO Agentur, die erst ab 6 stelligigen Beträgen im Monat arbeitet. Welche Kunden sollte sie haben, wo alle großen Läden Inhouse Teams haben?

Meine Meinung dazu: Die ganze Story ist unsinn oder 10 Jahre alt :roll:

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 03.08.2012, 16:47

Keine Ahnung, wenn ich die oben genannte URL mit site: abfrage, dann kommt mir das eher so vor, als wäre das mal eine Service-Domain gewesen, deren Dienste nur eingestellt wurden und von der Google nun nur noch die Reste listet. Sollte es sich um Blackhat handeln, dann um etwas, wo ich nicht durchblicke:

web.archive.org

allure
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 29.12.2009, 23:29

Beitrag von allure » 03.08.2012, 19:09

@ ElDiablo ich kann natürlich keine Namen nennen aber die ganz großen Unternehmen haben zwar Ihre eigenen SEO Teams, aber oft sind diese gar nicht mehr Inhouse sondern sind schon längst ausgegliedert und arbeiten als völlig freie Unternehmenstochter auch für genau diese Unternehmen! So sieht es in der Realität nunmal aus.
Da steckt halt dann etwas komplexeres dahinter als "nur" automatisierter Mist den du kennst. Aber das ist nicht deine Größenordnung, sonst hättest du dir deinen letzten Satz gespaart.


@ Melegrian: Komischerweiße geben diese Reste wirklich Linkpower ab. Wir mussten schon lange testen bei der Größe der Webseiten aber auf einmal linken die verlinkten Keywords...auf alle Fälle blicke ich da auch nicht durch. Deswegen poste ich hier. ;-)

Falls jmd besser mit diesen Methoden vertraut ist oder Möglichkeiten zur Analyse dieser Urls sieht, als her damit ;)

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 03.08.2012, 19:48

Ich möchte hier mit der URL nur keinen "Fingerzeigposting" draus machen, weil das nicht erwünscht ist. Doch wenn ich nach der URL suche, dann erscheinen da alte Verweise wie search.(url).de und grabber.(url).de für Videograbber mindestens in einem Verzeichnis. Somit könnte da auch mal vor Jahren so etwas Ähnliches wie eine kleine Suchmaschine oder eine Pseudo-Suchmaschine unter einer Subdomain gelaufen sein. So lange diese Subdomain aber immer noch in Verzeichnissen verlinkt bleibt, hat Google da aber eventuell noch alte Ergebnisse irgendwo auf Halde zu liegen und die Domain existiert ja noch.

Wie da noch etwas anders geregelt sein könnte, was richtig Blackhat wäre, damit kenne ich mich leider nicht aus. Was aber nicht bedeutet, dass es nicht möglich ist, nur so viel Ahnung habe ich halt nicht in dieser Richtung.

Vorstellen könnte ich mir allenfalls, dass da nur für Bots Weiterleitungen eingerichtet wurden, die aber nicht greifen, wenn der Aufruf über einen Browser erfolgt. Um das auszuprobieren, müsstest Du mal die Domain über irgendein Tool aufrufen.

Aber wenn ich dann sehe, dass Google bei den Treffern
4. Sept. 2008 – https://www.grabber.(url).de/. Download and save videos directly from...
anzeigt, dann denke ich mir einfach, dass das alles nur alter Mist sein wird.

Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 04.08.2012, 01:05

Macht einen sehr ausgeklügelten Eindruck und die Menge an Domains die ich schnell zuordnen konnte ist schon anständig. Wird nicht der einzige Domaineigentümer sein, den die verwenden. Alles Expireds, thematisch quer durch den Gemüsegarten, im Zweifelsfall alles was Backlinks hat und nicht bei 3 auf den Bäumen ist.

Die Art des (vermuteten) Cloaking ist interessant, denn ich denke hier wird schlicht nur an bekannte Google IPs freigegeben, sonst kommt ein unauffälliger Serverfehler. Statt wie beim normalen Cloaking eine Version für Besucher und Bot, gibt es nur die Version für den Bot. Kommt Google mit der "falschen" IP, hat die Seite eben gerade Probleme. Somit besteht nicht die Gefahr, daß das Cloaking auffliegt.

Ansonsten stelle ich mir das als zentral gesteuertes System vor, Server bekommt die Anfrage, gibt eine virtuelle Seite aus die mit Links bestückt ist. Theoretisch kann man sogar dafür den ursprünglichen Inhalt verwenden, solange davon nichts im Index landet wird es nie jemanden auffallen. Noindex ist ja kein Hindernis für Google die Seite als legitim anzusehen und der Linkjuice fließt munter weiter. Den Wettbewerbern fällt im Zweifelsfall auch nichts auf, denn die Links tauchen sicher in keinem Backlinkcheck auf, höchstens in der WMT?!

Alles nur Spekulation, aber ich denke der Ansatz ist ein virtuelles Netzwerk an "Zombieseiten" zu erstellen, das nur für den Googlebot existiert. Alles nur eine Ente? Möglich, nur sprechen die Denic Daten und die Menge der Domains dagegen.

Mal weitergesponnen: In der Theorie läßt sich so ein System komplett automatisiert aufsetzen. Domains registrieren, mit Inhalten füllen, Links einfügen.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 04.08.2012, 09:17

@Vegas - Wenn ich Deinen Faden aufgreifen und etwas weiterspinnen würde, dann könnte man aber auch theoretischen 1 Mio Seiten mit DC bestücken, die nur ein Bot zu sehen bekommt, dennoch andere Seiten damit schädigen. Abmahnungen und Klagen könnte es nicht geben, da ja ein Nachweis von Urheberrechtsverletzungen praktisch nicht möglich wäre.

Bei alledem frage ich mich aber, ob Google das nicht merken sollte, weil ja keine echten Zugriffe auf die Seiten erfasst werden könnten?

Business-Experte
PostRank 8
PostRank 8
Beiträge: 794
Registriert: 05.02.2009, 17:05

Beitrag von Business-Experte » 04.08.2012, 09:25

Ja, aber es fehlen die echten Menschen, die in diesem Zombienetzwerk surfen. Echte Surfer will Google aber zumindest gelegentlich mal auf irgendeine Art und Weise sehen.
Die könnte man zwar mit einem botnetzwerk simulieren, aber spätestens an dieser Stelle ist es schon kein Verstoß gegen die Googlerichtlinien mehr, sondern einfach nur kriminell.

Ich meine, das könnte vor ein paar Jahren mal funktioniert haben, aber heute halte ich Google für schlau genug, darauf nicht mehr hereinzufallen.

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 04.08.2012, 13:01

Für Cloaking müßte aber doch im html Breich Content sein.
Ich sehe nur das:

Code: Alles auswählen

<?xml version="1.0" encoding="UTF-8"?>


<?xml-stylesheet href="chrome&#58;//global/skin/" type="text/css"?>
<?xml-stylesheet href="chrome&#58;//browser/content/newtab/newTab.css" type="text/css"?>
<?xml-stylesheet href="chrome&#58;//browser/skin/newtab/newTab.css" type="text/css"?>

<!DOCTYPE window &#91;
  <!ENTITY % newTabDTD SYSTEM "chrome&#58;//browser/locale/newTab.dtd">
  %newTabDTD;
&#93;>

<xul&#58;window id="newtab-window" xmlns="http&#58;//www.w3.org/1999/xhtml"
            xmlns&#58;xul="http&#58;//www.mozilla.org/keymaster/gatekeeper/there.is.only.xul"
            disablefastfind="true" title="&newtab.pageTitle;">

  <div id="newtab-scrollbox">

    <div id="newtab-vertical-margin">
      <div id="newtab-margin-top"/>

      <div id="newtab-horizontal-margin">
        <div class="newtab-side-margin"/>

        <div id="newtab-grid">
          <div class="newtab-row">
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
          </div>
          <div class="newtab-row">
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
          </div>
          <div class="newtab-row">
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
            <div class="newtab-cell"/>
          </div>
        </div>

        <div class="newtab-side-margin"/>
      </div>

      <div id="newtab-margin-bottom"/>
    </div>
    <input id="newtab-toggle" type="button"/>
  </div>

  <xul&#58;script type="text/javascript;version=1.8"
              src="chrome&#58;//browser/content/newtab/newTab.js"/>
</xul&#58;window>
Für mich sieht das aus als wenn der Content der per XML ausgegeben
wurde einfach nicht verfügbar ist.
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 04.08.2012, 13:36

Schreiben wir hier alle über dieselbe Domain?
Ich erhalte nur: 500 Internal Server Error
Scripts und Plugins für Cookie-Hinweise

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag