Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Linkaufbau mit, für den User, maskierten Domains...

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Vegas
PostRank 10
PostRank 10
Beiträge: 5063
Registriert: 27.10.2007, 13:07

Beitrag von Vegas » 05.08.2012, 00:03

Melegrian hat geschrieben:Schreiben wir hier alle über dieselbe Domain?
Ich erhalte nur: 500 Internal Server Error
Yep, das ist das Cloaking, auf normalem Wege kannst Du nicht auf die Seiten zugreifen. Es gibt quasi zwei Varianten, getrennt voneinander.

Zugriff kommt über bekannte IP auf der Whitelist (etwa Googlebot, eigene IP) -> Seite ausliefern
Zugriff kommt über unbekannte IP -> 500er ausliefern

Beim normalen Cloaking bist Du verratzt wenn Deine IP Liste nicht aktuell ist und der Bot getarnt kommt und die Version für Besucher sieht. Da diese aber hier ein unauffälliger Serverfehler ist, wird diese Klippe umschifft.
Forward Up >> Suchmaschinenoptimierung >> SEO Notaufnahme >> SEO Audits >> SEM >> ORM

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 05.08.2012, 08:19

Die Frage stellte ich nur, weil ich nicht weiß, wo seonewbie den Quelltext von der XML her hat.

Erst dachte ich daran, die Domain einfach einmal mit cURL abzufragen und dabei einen User-Agenten von Google mitzusenden. Nicht mal zur Ausgabe, nur mal um zu sehen, ob dann ein anderer HTTP-Statuscode übermittelt wird. Aber wenn da, falls es so sein sollte, statt der User-Agenten die IP-Adressen abgefragt werden, würde es ja eh nichts bringen.

thaiseo
PostRank 5
PostRank 5
Beiträge: 308
Registriert: 13.03.2012, 08:26

Beitrag von thaiseo » 05.08.2012, 09:39

Melegrian hat geschrieben:
Bei alledem frage ich mich aber, ob Google das nicht merken sollte, weil ja keine echten Zugriffe auf die Seiten erfasst werden könnten?
und wie misst Google die Zugriffe bei Webseiten die nicht google analytics oder Google Adsens verwenden?
Solche Webseiten solls geben :wink:

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Business-Experte
PostRank 8
PostRank 8
Beiträge: 794
Registriert: 05.02.2009, 17:05

Beitrag von Business-Experte » 05.08.2012, 10:19

Z.b. mit der Bildersuche. Die ist ja framebasiert.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 05.08.2012, 10:24

thaiseo hat geschrieben:und wie misst Google die Zugriffe bei Webseiten die nicht google analytics oder Google Adsens verwenden?
Solche Webseiten solls geben :wink:
Es gibt aber keine größeren Websites, die nie in einem Browser mit installierter Google Toolbar oder mit Google Chrome aufgerufen werden. Und wie ich bisher häufig gelesen habe, sollen ja eigentlich Analytics oder Google Adsense nicht dafür dienen (ob es an dem ist, weiß ich nicht), sondern vielmehr die Erfassung der Daten, die von der Toolbar und vom Chrome gesendet werden.

ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 05.08.2012, 11:24

Für Google wäre sowas eine einfache Erhebung - wie viele Seiten mit Server-Fehlern (über den anonymen Bot getracked) linken auf Seite XY? Ist das Linkbild hier völlig schief, könnte man entwerten und von Spam ausgehen.

Generell finde ich Serverfehler zwar unauffällig bei EINER Seite, aber wenn plötzlich zig tausende linkgebende Seiten auftauchen, die auch noch Expireds mit Besitzerwechsel sind, dann wäre das erstmal nichts für ein Hauptprojekt.

Man müsste hier imho schon sehr weit ausholen und zu jedem Thema eine echte Seite bauen, die den Juice erbt. Alle sehr sehr Blackhat ^^

Wäre das nicht auch abmahnfähig, wenn man unter Spitznamen und absichtlichen Vertippern seine Domains registriert, Straßennamen verändert und bei gleicher PLZ die Nachbarstadt zuordnet?

OT:
Schon interessant wer unter der gleichen Adresse wie der Seiteneigentümer des Beispiels ihre Film-Produktionsfirma angemeldet hat ;-)

thaiseo
PostRank 5
PostRank 5
Beiträge: 308
Registriert: 13.03.2012, 08:26

Beitrag von thaiseo » 05.08.2012, 17:11

Melegrian hat geschrieben: Es gibt aber keine größeren Websites, die nie in einem Browser mit installierter Google Toolbar oder mit Google Chrome aufgerufen werden.
Ach wie das denn, ich kann also Amazon nicht mit Firefox aufrufen so wie ich es mache?
das viele Google Chrome verwenden ok, mache ich auch manchmal, aber Chrome ist zwar an der Spitze aber dennoch mit knapp 17% doch nicht bei allen vertreten, ebenso wie die Toolbar :)
https://de.statista.com/statistik/daten ... -weltweit/

aber vielleicht machen sie es wie beim Fernsehn bei der Einschaltquote, ein paar gemessen und einfach mal hoch gerechnet

thaiseo
PostRank 5
PostRank 5
Beiträge: 308
Registriert: 13.03.2012, 08:26

Beitrag von thaiseo » 05.08.2012, 17:13

Business-Experte hat geschrieben:Z.b. mit der Bildersuche. Die ist ja framebasiert.
Wieviel % der User suchen mit Bildersuche? Frage mal deine Mutter oder dein Kind, viele nutzen das nur sehr selten

Business-Experte
PostRank 8
PostRank 8
Beiträge: 794
Registriert: 05.02.2009, 17:05

Beitrag von Business-Experte » 05.08.2012, 17:35

Wenn nicht direkt die Bildersuche, dann doch universal search.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 05.08.2012, 17:52

thaiseo hat geschrieben:
Melegrian hat geschrieben: Es gibt aber keine größeren Websites, die nie in einem Browser mit installierter Google Toolbar oder mit Google Chrome aufgerufen werden.
Ach wie das denn, ich kann also Amazon nicht mit Firefox aufrufen so wie ich es mache?
Nach der Statistik hat der Chrome rund 16 % Marktanteile. Bei einer größeren Website mit 1 Mio Seitenaufrufe pro Monat kommen da aber bei mir nicht "nie" heraus, sondern 160.000 Seitenaufrufe allein im Chrome. Ich schrieb nicht von Dir oder von einem Einzelnen, sondern von der Gesamtheit der Seitenaufrufe bei einer größeren Website.
Und da erfolgen nun einmal 16 % der Aufrufe mit dem Chrome und dazu noch ein weiterer Teil mit anderen Browsern, die aber die Google Toolbar installiert haben. Geschätzt können alleine dadurch bei 20 bis 25 % der Aufrufe detaillierte Informationen erfasst und übertragen werden, egal von welcher Website. Bei einer kleinen Website sind es dann halt nur 20 bis 25 % von 1.000 Seitenaufrufen im Monat.
thaiseo hat geschrieben:Wieviel % der User suchen mit Bildersuche? Frage mal deine Mutter oder dein Kind, viele nutzen das nur sehr selten
Da in den Ergebnissen der organischen Serps relativ häufig der Link "Bilder zu ..." gefolgt von einigen Bildern eingeblendet wird, klicken da nicht gerade wenige auf diesen Link. Genaue Prozente kenne ich zwar nicht, doch nur weil weder Du noch Deine Verwandten es tun, bedeutet es noch lange nicht, dass es vielleicht nicht doch 5 bis 15 % der restlichen User tun. In der Gesamtzahl sollte es zumindest reichen.

allure
PostRank 1
PostRank 1
Beiträge: 18
Registriert: 29.12.2009, 23:29

Beitrag von allure » 06.08.2012, 09:40

Hey danke für die vielen Antworten. Immer schön ein paar andere Sichtweißen zu hören/lesen.

@ Vegas Deine Gedanken zu dem Thema teile ich auch.

Aber beim Punkt:
Zugriff kommt über bekannte IP auf der Whitelist (etwa Googlebot, eigene IP) -> Seite ausliefern
Zugriff kommt über unbekannte IP -> 500er ausliefern

Ist es für Google nicht einfach, die Webseiten simultan aufzurufen?
Also einmal mit dem Googlebot und in der selben Sekunde getarnt als User Agent?

Und die Differenz der Ansicht müsste als Ergebnis Cloaking sein?

Natürlich müsste Google erstmal auf den Trichter kommen diese wirklich Zeitgleich abzurufen.

analyseninja
PostRank 3
PostRank 3
Beiträge: 66
Registriert: 21.04.2011, 08:03

Beitrag von analyseninja » 06.08.2012, 10:39

Ich kann mir ehrlich gesagt nicht vorstellen, dass diese Art von Cloacking noch funktioniert. Die Technik ist uralt und inzwischen hat Google genügend Möglichkeiten herauszufinden, dass die Seite nur für den Bot (bzw. bestimmte IPs) sichtbar ist.

Beloe007
PostRank 10
PostRank 10
Beiträge: 2928
Registriert: 05.03.2009, 10:31

Beitrag von Beloe007 » 06.08.2012, 11:24

Gab es da nicht mal was in den USA wo diese Methode an Google gemeldet wurde? Da wurden fremde Seiten über eigene Domains per Proxie geladen, mit neuen Links gefüllt und nur an Google ausgeliefert?

So konnte bei den echten Projekten (angeblich) ein DC-Problem entstehen und eigenen Projekte per Link geholfen werden.

Da gab es aber einige die das getestet und gemeldet (weil es wirklich funktionierte) haben und Google meinte sie hätten das nun unterbunden.

Melegrian
PostRank 10
PostRank 10
Beiträge: 3170
Registriert: 30.01.2005, 12:36

Beitrag von Melegrian » 06.08.2012, 13:08

Beloe007 hat geschrieben:Gab es da nicht mal was in den USA wo diese Methode an Google gemeldet wurde? Da wurden fremde Seiten über eigene Domains per Proxie geladen, mit neuen Links gefüllt und nur an Google ausgeliefert?
Kann mich nur an Threads wie diesen erinnern und davon gab es, falls ich mich richtig erinnere, nicht nur einen Thread:
Unifex hat geschrieben:Es ist viel dreister. Der Googlebot kommt über die Wepwarper Seite und Crawlt Deine Seiten über seine erweiterte URL.

Somit wird dein Inhalt seiner Domain gut geschrieben. ...
https://www.abakus-internet-marketing.d ... t-105.html

redxseo
PostRank 1
PostRank 1
Beiträge: 14
Registriert: 09.08.2012, 11:12

Beitrag von redxseo » 09.08.2012, 11:48

Habe so'ne Technik auch schon mal gesehen. Dort wurde mit 302ern gearbeitet und die Inhalte waren nur sichtbar, wenn man mit einer Google-IP auf die Seite gekommen ist. Hat sehr (!) lange funktioniert und funktioniert teilweise noch immer. :-?
"Das Internet? Gibt's diesen Blödsinn immer noch?"
(Homer Simpson, Sicherheitsinspektor im Kernkraftwerk Springfield)
- - - - - - -
www.red-x.org | SEO | SEM | Online-Marketing
www.seo-leichtgemacht.de | SEO für Einsteiger

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag