Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

URL-Hijacking: Reaktionen von Google?

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
KeepCool
PostRank 8
PostRank 8
Beiträge: 715
Registriert: 02.01.2004, 11:55

Beitrag von KeepCool » 07.12.2004, 20:42

@Southmedia

Du solltest es ausserdem vermeiden, mich direkt anzusprechen, nicht dass nachher Googles auserwählte Algo, uns zwei als "Axe of Evil" einstuft und Deine Seiten mit aus dem Index wirft...;-)
Ich kann Dir das zwar nicht bestätigen, aber da ja Schorsch DabbelJuuu nicht mal weiss ob Spanien eine Monarchie, ein Königreich oder eine Republik ist, könnte es durchaus sein, dass Google von der NSA angewiesen wurde, dieses "Lack of Intelligence" - für das Wohl des Amerikanischen Volkes - algorithmisch auszugleichen...:-):-):-)

Nichts ist unmöglich,

KeepCool

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Konrad Wolfenstein
PostRank 5
PostRank 5
Beiträge: 326
Registriert: 24.11.2003, 15:47

Beitrag von Konrad Wolfenstein » 07.12.2004, 21:09

*lol*

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 07.12.2004, 21:23

Also es gab schon Reaktionen von Google, jetzt heisst es nur abzuwarten ob sich da was entwickelt oder eben selber einzugreifen.

Froogle zu kicken ist ja keine so gute Idee, jemand andere Vorschläge?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

hard_pollux
PostRank 9
PostRank 9
Beiträge: 1057
Registriert: 10.03.2004, 12:41

Beitrag von hard_pollux » 07.12.2004, 21:29

Also nocheinmal:

Ich kann die ganze Aufregung über den vermeinllichen Bug nicht nachvollziehen.
Weiterleitungen sind G ein Dorn im Auge, war schon immer so, wer sie von G erkennbar anwendet, muß halt die Konsequenzen tragen.

Verlinkt ordentlich oder für G nicht verfolgbar, dann habt ihr keine Probleme.
Und ich kann mich da nur Ranking-Check anschließen: Wen stört der Bug?

Und wer sich nicht an den Vorgaben von G orientieren möchte, der muß es doch auch nicht. Gibt doch Alternativen: MSN, yahoo, etc.
Ich für meine Person passe meine Projekte ausschließlich dem Algo von G an, fahre damit glänzend, und meine Kunden sind mehr als zufrieden.

Allen Andersdenkenden wünsche ich viel Erfolg mit MSN & Co, etc.

Gruß
HardPollux

workershop
PostRank 8
PostRank 8
Beiträge: 697
Registriert: 19.11.2004, 19:08
Wohnort: Leipzig

Beitrag von workershop » 07.12.2004, 22:22

Also ist es unser Fehler, das wir uns in die falschen Verzeichnisse eingetragen haben? Wer soll das denn vorher wissen? Ich weis nicht, was das soll:

Ich kann die ganze Aufregung über den vermeinllichen Bug nicht nachvollziehen.
Weiterleitungen sind G ein Dorn im Auge, war schon immer so, wer sie von G erkennbar anwendet, muß halt die Konsequenzen tragen.

Denkst Du wir haben hier absichtlich unser Geschäft zerstört? Mir war zu 100% vorher nicht klar, das man sich nicht in alle Webkataloge eintragen sollte.

Aber wenn das deine Meinung ist - Gedanken sind frei!

bugscout
PostRank 9
PostRank 9
Beiträge: 2602
Registriert: 23.06.2003, 12:24

Beitrag von bugscout » 07.12.2004, 22:45

moin hard_pollux,
Weiterleitungen sind G ein Dorn im Auge, war schon immer so,
wer sie von G erkennbar anwendet, muß halt die Konsequenzen tragen.
wäre es dann nicht sinniger den weiterleiter zu bestrafen und nicht die
weitergeleiteten?

ich habe eine outbound.pl im cgi-bin-verzeichnis.
damit ist die dicht

disallow: /cgi-bin/
disallow /cgi-bin/outbound.pl?*$

wäre ja wohl von den katalogbetreibern nicht zuviel verlangt,
die entsprechenden zeilen bei sich einzubauen.

ausserdem wäre es natürlich auch ganz nett, wenn der
google support nicht einfach solche verarschungs-textbausteine
schicken würde.

grüsse

hard_pollux
PostRank 9
PostRank 9
Beiträge: 1057
Registriert: 10.03.2004, 12:41

Beitrag von hard_pollux » 07.12.2004, 23:11

workershop,
Weiterleitungen sind G ein Dorn im Auge, war schon immer so, wer sie von G erkennbar anwendet, muß halt die Konsequenzen tragen.
es ist doch richtig, daß G keine Weiterleitungen möchte. Wenn Katalogbetreiber oder sonstwer über solche Richtlinien erhaben sind - bitteschön.

Nur kann ich in keinster Weise nachvollziehen, wieso G hier als der Sündenbock angesehen wird.
Ich könnte hier jetzt mal das Forum durchwühlen und aufzeigen, an welchen Stellen hier überall vor Weiterleitungen gewarnt wird. Jetzt ist auf einmal der Weiterleiter das Opfer und Google der Sündenbock - ich hoffe mal, daß diese Komischkeit nicht nur mir auffällt.
Mir war zu 100% vorher nicht klar, das man sich nicht in alle Webkataloge eintragen sollte.
Das glaube ich Dir unbesehen, und ich kann auch nicht nachvollziehen, wieso Du als Opfer, Dich von meinem Post angegriffen fühlst, vielleicht liest Du ihn nocheinmal durch.
Auch habe ich seinerzeit, als hier Kataloglisten vorgestellt wurden, darauf hingewiesen, daß man sie auf Vererbung hin überprüfen solle, denn nur dafür taugen sie. Die Antworten darauf will ich an dieser Stelle garnicht zitieren, ist mir einfach zu lächerlich.

Und wenn ich dann diese Lächerlichkeit
also ich sitze grade auch an einem webkatalog. wenn ich jetz eine outbound.pl, wie hier im forum, datei habe, diese im cgi ordner platziere und den dann mit ner robots.txt sperre. ist doch ok oder?

wenn ich die datei nicht sperren würde, dann würden die doch rausfliegen und es wäre genau das oben genannte problem. stimmt das soweit? ich will nur nix falsches in den index laden. der katalog ist noch nicht ganz fertig, also ist noch vom index fern. wenn ic hwas falsch mache, dann bitte sagen, nicht dass ich ein unheil anrichte
in diesen Thread https://www.abakus-internet-marketing.d ... -9618.html
lese, dann wird mir auch immer klarer, wie sinnlos es eigentlich ist, hier vor irgendwelchen Risiken zu warnen. Jeder kocht hier sein eigenes Süppchen, und geht es schief, wird hier gejammert.

HardPollux

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 07.12.2004, 23:22

HardPollux,

es geht hier nicht um die Weiterleitungen vor denen gewarnt wurde - sondern um die die man als normaler Webmaster so einsetzt: Linktracking, Werbebanner oder eben Einträge in Webkatalogen.

Wenn jemand intern in seiner Seite Weiterleitungen nutzt dann war das schon immer klar dass das eine der Spammethoden ist, auch sofortige MetaRefresh-Weiterleitungen sind nicht toll - aber alles andere kann doch nicht auf diese Art und Weise gelöst werden.

schorsch
PostRank 7
PostRank 7
Beiträge: 613
Registriert: 26.08.2004, 23:00
Wohnort: Erlangen

Beitrag von schorsch » 07.12.2004, 23:26

@HardPollux

danke für dein zitat und danke das meister hard_pollux dies als eine lächerlichkeit bezeichnet.

vor kurzer zeit war es nichts besonderes über eine outbound.pl weiterzuleiten und viele leute hier benutzten dies z.T auch bei ihren eigenen seiten. nun kommt plötzlich ein problem auf und jeder schreit groß rum. und wenn man jetzt plötzlich eine frage dazu stellt, weil man vielleicht noch nicht so lange sich mit seo beschäftigt und noch zu den anfängern zählt, dann wird man von leuten mit mehr erfahrung nur belächelt. ich würde diese frage nicht stellen, wenn ich mir nicht selbst darüber gedanken gemacht hätte und zu keinem klaen entschluss gekommen bin. für mich war immer klar robots.txt machts dich und es kann nix passieren, aber das scheint ja nun nicht so zu sein. tut mir leid das ich diese dumme und törichte frage gestellt habe. ich entschuldige mich hiermit vor allen leuten in diesem forum, nur im geringsten daran gedacht zu haben, links weiterzuleiten, wie es auch hier im forum statt findet.

hard_pollux
PostRank 9
PostRank 9
Beiträge: 1057
Registriert: 10.03.2004, 12:41

Beitrag von hard_pollux » 07.12.2004, 23:26

Grüß' Dich Buggy,
wäre es dann nicht sinniger den weiterleiter zu bestrafen und nicht die
weitergeleiteten?
ist sicherlich was dran, aber was passiert, wenn der Weiterleiter heute abgeschossen wird? Nun, er ist morgen auf einer neuen Domain für € 4,95 wieder da.
Bei der vorliegenden Variante wird dem Weiterleiter über kurz oder lang das Wasser abgegraben, und wenn man ihm mal "grobe Fahrlässigkeit" in diesem Zusammenhang nachweist, wird es sehr ernst.
Und wie Du selbst es aufzeigst, kann man diesem tatsächlichen, oder meiner Meinung nach vermeintlichen Bug mit Leichtigkeit ausweichen, und ich erinnere mich noch sehr gut an den Thread, wo Du hier Deine praktischen Erfahrungen damit vorgestellt hast.
Soviel Korrektheit erwarte ich auch von jedem anderen Webmaster seinen Usern gegenüber!

Gruß
HardPollux

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 07.12.2004, 23:33

Bei der vorliegenden Variante wird dem Weiterleiter über kurz oder lang das Wasser abgegraben, und wenn man ihm mal "grobe Fahrlässigkeit" in diesem Zusammenhang nachweist, wird es sehr ernst.
Den Weiterleiter interessiert das kein Stück, die meisten Webkatalogbetreiber kennen das Problem nichtmal und sie interessiert es auch nicht besonders - ihre Seiten sind ja weiterhin im Index.

Das Problem an der "Funktion" von Google ist dass einfach zu viele normale Seiten von Leuten die nichtma ansatzweise Ahnung von SEO oder ähnlichem haben abgeschossen werden, das geht so weit dass man komplett auf Weiterleitungen verzichten müsste und das ist nicht sinnvoll und kann auch nicht im Sinne Googles sein.

hard_pollux
PostRank 9
PostRank 9
Beiträge: 1057
Registriert: 10.03.2004, 12:41

Beitrag von hard_pollux » 08.12.2004, 00:19

schorsch,

es ist mir unmöglich nachzuvollziehen, warum Du in Deinem Katalog nicht ganz normale Links verwenden möchtest. Warum soll sich in Deinem Katalog denn jemand eintragen? Newbies denken sicherlich an Traffic, aber das trifft nur auf wenige spezielle Llisten zu.
Gönne Deinen Katalogusern einen echten Link, der auch von G als solcher anerkannt und positiv gewertet wird - dies wird nach meinen Erfahrungen, und das schlage bitte nicht in den Wind, Deinem Katalog im Ranking zuträglich sein.

Worüber ich mich ärgere, und was für mich lächerlich ist, ist einfach die Tatsache, daß Du Deinen Usern, die sich die Mühe machen, sich in Deinem Katalog einzutragen, Dich also mit Content versorgen, im Gegenzug den Link verweigerst.

Und noch ein Tip zum Webkatalog: Laß' den Eintrag von Unterseiten zu. Es gibt viele Webmaster, die unterschiedliche Themen auf einer Domain haben und Dir diese Möglichkeit danken.

@Jan
sondern um die die man als normaler Webmaster so einsetzt: Linktracking, Werbebanner oder eben Einträge in Webkatalogen.
diese Geschichten sind mir wohl bekannt. G ist aber nicht in der Lage, zwischen Gut und Böse zu unterscheiden. Und ich erinnere mich, daß in diesem und anderen Foren gewisse Nutznießungen vorgestellt wurden, denen G jetzt halt begegnet - m.E. in einer äußerst wirksamen Weise von Unten nach Oben.
Aber die Guten haben ja die Möglichkeit, dem Problem auf die von Bugscout beschriebene Weise auszuweichen, weitere Varianten bietet auch JS, o.ä.

Jedenfalls bewerte ich diesen Bug, ob nun tatsächlich ein Bug, oder ein neues Feature, ausschließlich positiv.
Nach "Austin" hat es auch viele Tränen gegeben, trotzdem war das Ergebnis durchaus positiv zu bewerten. Und ich denke, ähnlich spektakulär wird Google nie wieder vorgehen, sondern weitere Mechanismen werden "gleitend" eingepflegt.

Webmaster, die ihre Projekte einmal erstellt haben und nicht den neuen Bedingungen anpassen, werden damit untergehen.
Und wie soll G den neuen Herausforderungen gerecht werden, wenn sich nicht hie und da spürbare Änderungen ergeben?

Gruß
HardPollux

hard_pollux
PostRank 9
PostRank 9
Beiträge: 1057
Registriert: 10.03.2004, 12:41

Beitrag von hard_pollux » 08.12.2004, 00:49

Jan,
Den Weiterleiter interessiert das kein Stück, die meisten Webkatalogbetreiber kennen das Problem nichtmal und sie interessiert es auch nicht besonders - ihre Seiten sind ja weiterhin im Index.
das kann nur da funktionieren, wo sich der Eingetragene nich für sein Ranking bei G interessiert, also der über die Website generierte Umsatz nicht im Zusammenhang mit dem Ranking zu sehen ist.
Wo es aber anders ist?
Ich habe auch einige Kunden, deren Angebote sich ausgezeichnet über das Netz vermarkten lassen. Sie haben sich in der großen Internetwelle vor ca. 5 -6 Jahren eine Homepage basteln lassen, meist mit Dmoz Eintrag, in der Erwartung, jetzt raucht die Bude. Mitnichten, weil niemand die Homepage kennt. Mir antwortete man auf Anfrage: "Es darf aber nix kosten ..."
Ein anderer Kunde, aus der gleichen Branche, bejahte mein Angebot erst, nachdem er beoachtete, daß bei mir der PR um einen Punkt stieg. Es gibt also auch im kommerziellen Bereich zwei Sorten Sitebetreiber.
Wenn die zuerst beschriebene Sorte nun aus dem Index fällt, oder auf Rang 300 herumdümpelt, wen interessiert's.
Die zuletzt beschriebene Sorte kontrolliert bei der allmorgendlichen Tasse Kaffee das Ranking. Ergeben sich dort nicht nachvollziehbare Schwankungen, landen sie früher oder später hier, bzw. lesen jetzt schon fleißig mit.
Sollten sich Reklamationen häufen, werden gewisse Katalogbetreiber reagieren müssen - allerdings räume ich gerne ein, daß die Betroffenen in der Hauptsache eh die sind, die es eh nicht interessiert.

Gruß
HardPollux

Southmedia
PostRank 10
PostRank 10
Beiträge: 7322
Registriert: 20.07.2003, 19:56

Beitrag von Southmedia » 08.12.2004, 01:40

Birthe hatte grade im ICQ ne gute Idee. Ich sag nur "BVDW" und "Nähe zu den SEOs"

minivip
PostRank 4
PostRank 4
Beiträge: 165
Registriert: 14.03.2003, 19:55

Beitrag von minivip » 08.12.2004, 01:43

endlich ist mal wieder richtig was los ;-)

leider zeichnet sich google wirklich nicht durch geschwindigkeit aus. wenn ich nur an die linktrade.biz nummer denke, da musste auch erst wochenlang zugeschaut werden und gehandelt wurde erst als die sache von der presse aufgegriffen wurde - und auch dann hat es erschrechenderweise noch 2 monate gedauert bis die filter zugeschlagen haben. und was fuer bissige, aber leider nicht gut justierte filter. dann die 4 milliarden seiten schallmauer, erst nach rund einem jahr ploetzlich der sprung auf 8 milliarden (passend zum msnbeta-search launch). die verschwoerungstheorien bzgl. der 32bit grenze fand ich alles andere als abwegig. hierzu wuerde mich mal die ansicht von unserem analytik-experten keepcool interessieren :)

ich wuesste gerne einmal, wieviel seiten im index noch uebrigblieben, wenn man den ganzen alten schrott abziehen wuerde. dann die nummer mit der eingeschraenkten backlink-anzeige. auch die pagerank-anzeige, deren zeitliche verzoegerung und jetzt noch das sehr sporadische updaten des wertes, das alles sieht schwer nach notwehr aus. von thematischem verstaendnis weit und breit nichts zu sehen, die sandbox ist eine qual, aber keine qualitaet, und die vielen dropouts im index beunruhigen mich auch immer mehr. das seiten-hijacken wird langsam zum problem, und zum abschiessen von seiten braucht es auch keine hunderte von links mehr, ein einziger wohlgewaehlter reicht schon.

aber lassen wir uns ueberraschen, wahrscheinlich bescherrt uns Google etwas nettes zum Weihnachtsfest - und wenn's nur das PR-Update ist.

na dann gute nacht.
Unterhaltsames aus der Welt der Suchmaschinen findet ihr in meinem SOS SEO Blog.

Gesperrt
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag