Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

ABAKUS +Hundert andere betroffen durch Google 302 problem

Suchmaschinenmarketing bzw. Suchmaschinenoptimierung Infos und News
MonikaTS
PostRank 10
PostRank 10
Beiträge: 3582
Registriert: 07.10.2005, 09:05

Beitrag von MonikaTS » 29.11.2005, 23:39

ThomasB hat geschrieben:@Kristian
..... dass die Suchmaschinen, die heutzutage technisch soweit forgeschritten sind auch Videos und andere Formate zu analysieren, dazu in der Lage sein sollten die Basics des HTTP-Protokolls zu beherrschen und diese sinnvoll zu implementieren. ....
wenn ich diese Logik auf meine Branche umwälze,
dann sehen ca 70% der Internetuser nie wieder eine Website,
ob an 1. Stelle bei Google, Yahoo oder sonstwo,

denn dann beliefert kein WebDesigner der Welt mehr die Bugs des InternetExplorers.

@http Protokoll

das ist international,

da gibts kein *was die Europäer so gerne hätten*,

Webstandards wurden implementiert, um das www mulitkulti zu erhalten.

diese Suchmaschine entmündigt mich als Sucher UND hat bugs, diese bugs weiß man aber als Programmierer, genauso wie die bugs des IE jeder profesionelle WebDesigner kennt.

Einerseits Hilfe bei der Suchmaschinenoptimierung anzubieten und andrerseits derart naiv meta refresh oder/und einen 302 anzuwenden ist für mich schlicht nicht verständlich,

aber vielleicht denke ich auch zu

einfach

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Kristian
PostRank 9
PostRank 9
Beiträge: 1484
Registriert: 20.07.2005, 16:30

Beitrag von Kristian » 29.11.2005, 23:41

Hallo
@ThomasB
Ja, du hast recht, aus meinem Posting kann man einerseits entnehmen, dass mir die Möglichkeiten fehlen, es spricht aber auch der Frust, der entsteht, wenn meine Arbeit auf billige Art und Weise gediebelt wird.
Ich bin im Grunde genommen guter Hoffnung, dass Google das in den Griff bekommen wird, es geht halt in dem Fach oft nur über Try & Error.
Ich habe mich da ev. zu früh aus der Entwicklung genommen und werde überlegen, ob ich mir nicht auch noch ein paar Errors gönne, wobei die Taktik, keine 300'er zu nehmen auch zu sehr guten Ergebnissen führt.
Gruss Kristian
Zuletzt geändert von Kristian am 29.11.2005, 23:42, insgesamt 1-mal geändert.
Seo-Check Biete Links zu Schmuck und Hochzeit sowie Artikelplätze für Firmen allgemein.

shakur
PostRank 5
PostRank 5
Beiträge: 236
Registriert: 15.04.2005, 09:12

Beitrag von shakur » 29.11.2005, 23:42

da wollte ich heute was bei sedo verkaufen, wo man etracker einbinden muss... und nun les ich das hier ;)

GLÜCK GEHABT!!
Webfreebies.de - Hol dir die Prämie!
TFT Bildschirme | Soundsysteme | Apple iPods | Playstation Portable
-----------------------------
Biete Links zum Thema Musik, Dating, Technik und Kostenloses auf 1a Contentsites mit bis zu 500.000 UVs/ Monat.
-----------------------------

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

ThomasB
PostRank 5
PostRank 5
Beiträge: 320
Registriert: 30.07.2004, 14:12
Wohnort: München

Beitrag von ThomasB » 29.11.2005, 23:46

>Einerseits Hilfe bei der Suchmaschinenoptimierung anzubieten und andrerseits derart naiv meta refresh oder/und einen 302 anzuwenden ist für mich schlicht nicht verständlich

Ich würde nie einem Kunden vorschlagen eine der beiden Möglichkeiten einzusetzen. Es geht viel mehr um die Programmierer, die von SEO keine Ahnung haben und sich strikt an die Richtlinien halten. Und 302-Redirects sowie Meta-Refreshs werden einfach oft innerhalb der Vorgaben angewendet.

Natürlich kann man von den Suchmaschinen nicht fordern komplett fehlerfrei zu sein, jedoch würde es aus meiner Sicht für sie Sinn machen Fehlimplementationen zu beheben und somit Schaden von unschuldigen Seitenbetreibern abzuwenden.

ThomasB
PostRank 5
PostRank 5
Beiträge: 320
Registriert: 30.07.2004, 14:12
Wohnort: München

Beitrag von ThomasB » 29.11.2005, 23:49

@Kristian:
Ich kann Dir hierzu nur die Lösung von Yahoo! empfehlen, die meiner Meinung nach sehr gut gelungen ist:
* Domain-übergreifende Redirects werden das Ziel und nicht die Quelle aufnehmen
* meta-redirects über 1 sek = 301
* meta-redirects unter 1 sek = 302
* 301 von / zu /home.html listen /
* 301 redirect von /alt.html zu /neu.html listen /neu.html
* 302 von /alt.html zu /neu.html listen /alt.html

Abakus Forengast
Nutzer/in
Nutzer/in
Beiträge: 1462
Registriert: 24.01.2004, 13:14

Beitrag von Abakus Forengast » 29.11.2005, 23:49

@Kristian

wo bitte schön wird durch diesen "Bug" irgend etwas von Deinen Seiten "gedibelt"???

Wo "landet" denn der User wenn er auf diesen redirect-Link klickt? Bei BMW oder auf der jeweiligen "richtigen" Seite? Der User gelangt auf die richtige Seite - wieso wird hier irgendwas "gedibelt" ??????

Nur weil irgendwo ein paar URLs mit rdirect?url=https://www.domain.de auftauchen, wird daraus gleich ein riesen Problem gemacht bei dem gleich Matt Cutts "helfen soll".

Kopf schüttelnde Grüße
Zuletzt geändert von Abakus Forengast am 29.11.2005, 23:52, insgesamt 1-mal geändert.

ThomasB
PostRank 5
PostRank 5
Beiträge: 320
Registriert: 30.07.2004, 14:12
Wohnort: München

Beitrag von ThomasB » 29.11.2005, 23:52

@Traxx

Das Problem ist natürlich nicht vorhanden wenn der weiterleitende Server immer erreichbar ist, die Redirects nicht cloaked, abschaltet oder auf andere Weise böse Absichten hat. Da dies aber in der Vergangenheit und auch heute noch oft praktiziert wurde und einige versucht haben alle Seiten des ODP hizujacken und auf eine andere URL umzuleiten, glaube ich, dass es durchaus Sinn macht, dies sehr skeptisch zu betrachten.

Kristian
PostRank 9
PostRank 9
Beiträge: 1484
Registriert: 20.07.2005, 16:30

Beitrag von Kristian » 30.11.2005, 00:09

Hallo
@Traxx
Ich habe da einen speziellen Freund, der sich viel Zeit nimmt, um mir zu schaden.
Er meint zumindest, dass er das könnte.
Er meldet meine Seiten derzeit in allen Webverzeichnissen an, wo er meint es könne klappen.
Ich finde es interessant die Ergebnisse seiner Arbeit zu verfolgen, er tut mir ja nicht wirklich weh, aber ich sehe es doch an den Einnahmen (Adsense-Taschengeld) und ich finde bei Google Ergebnisse zu "meinem" Wort, die auf Fehler im System hinweisen.
Gruss Kristian
Seo-Check Biete Links zu Schmuck und Hochzeit sowie Artikelplätze für Firmen allgemein.

Kristian
PostRank 9
PostRank 9
Beiträge: 1484
Registriert: 20.07.2005, 16:30

Beitrag von Kristian » 30.11.2005, 00:18

Hallo
@ThomasB
Es mag sein dass die Lösung von Yahoo gut ist, man muss das aber auch in die Praxis umsetzen.
IMHO ist ein Bot nicht nur bei mir ein mehrteiliges sensibeles Programm.
Der Teil der die Seiten holt macht nichts anderes.
Die Daten werden erstmal abgelegt und dann von einem anderen Teil des "Bots/Crawlers" analysiert und wieder abgelegt um später vom nächsten Programmteil in die DB gepackt zu werden.
Wenn da jetzt 300'er drin sind sei es als header als meta oder in java beteutet das einen imensen Aufwand.
Der orginale Text des URL muss durchgeschleift werden, die orginale URL, der orginale PR usw.
Es gibt jedesmal einen Neuauftrag für den Teil des Progs der die Daten holt, man muss den Verlauf mitschreiben, alle Progteile müssen darauf reagieren, man muss betroffenen URLS, derweil ggf. sperren. Das ist nicht einfach.
Gruss Kristian
Seo-Check Biete Links zu Schmuck und Hochzeit sowie Artikelplätze für Firmen allgemein.

oldInternetUser
PostRank 9
PostRank 9
Beiträge: 1250
Registriert: 19.03.2005, 12:52

Beitrag von oldInternetUser » 30.11.2005, 00:43

Wenn da jetzt 300'er drin sind sei es als header als meta oder in java beteutet das einen imensen Aufwand.
So entlarven sich Hobbyprogrammierer, die von grundlegenden Fragen einer Programmarchitektur keine Ahnung haben.

Kristian
PostRank 9
PostRank 9
Beiträge: 1484
Registriert: 20.07.2005, 16:30

Beitrag von Kristian » 30.11.2005, 01:01

Hallo
@oldInternetUser
> So entlarven sich Hobbyprogrammierer, die von grundlegenden Fragen einer Programmarchitektur keine Ahnung haben.

Lächel. Hast du es mal versucht? Kann ich das Ergebnis irgendwo einsehen?
Hast du es mal auf die Masse gesehen? Wieviele URL's kann ein Low-Cost-PC deiner Meinung nach verwalten und auf Dauer aktuell halten?
Wie muss man vorgehen, um die Masse zu verarbeiten?
Kannst du mir hier die universelle Antwort geben?
Hey, dann hast du bestimmt auch den Algo, den wir alle suchen, der besser ist als der von Google.
Ev. kann man ja auch das komplette Netz mit einem Rechner durchsuchbar machen?

SCNR Kristian
Seo-Check Biete Links zu Schmuck und Hochzeit sowie Artikelplätze für Firmen allgemein.

SloMo
PostRank 10
PostRank 10
Beiträge: 4880
Registriert: 04.01.2005, 18:26

Beitrag von SloMo » 30.11.2005, 07:32

Kristian hat geschrieben:Aus meiner "Suchmaschinenbetreibersicht".
Mein Bot nimmt Seiten, wenn sie einen 200'er liefern.
Ich habe nicht die Möglichkeit und ich habe auch keinen Bock diverse 300'er zu analysieren und zu kontrollieren, um doppelte Einträge zu verhindern.
301/302 ordentlich zu verfolgen, ist eigentlich nicht so schwer. Außerdem ist das schon sehr wichtig, weil das Netz in Bewegung ist. Wenn eine sehr populäre Webseite umzieht (und sei es intern), darf sie nicht Ihre Linkpop verlieren. Sonst wäre nicht nur ihr Gewicht, sondern auch die Historie der Site gestört. Die Historie ist wichtig für zeitabhängige Filter ("Sandbox"). Googles Technologie erfordert deshalb natürlich mehr Sorgfalt. Das hat nicht unbedingt nur mit doppelten Einträgen zu tun... dass doppelte Einträge dadurch verhindert werden, ist wohl mehr ein Abfallprodukt, denn es ersetzt den DC-Filter nicht.

Wie gesagt, eigentlich sollte es nicht schwer sein, und ehrlich gesagt wird dieser Thread eher von Angst regiert, als von Fakten. Bislang wird doch nur vermutet, dass Google damit ein Problem hat. Ich finde nach wie vor, dass Google mit dem Sedo-Forwarder recht elegant umgeht. Die Index-Einträge sind getrennt, die Keywords werden bei bedarf kombiniert.

SloMo

mario
PostRank 10
PostRank 10
Beiträge: 3112
Registriert: 15.08.2003, 05:46

Beitrag von mario » 30.11.2005, 08:54

https://64.233.179.99/search?hl=de&lr=& ... tnG=Search
https://64.233.179.99/search?hl=de&q=ab ... =Suche&lr=

älterer cache
sehr hohe Seitenanzahlen

vielleicht dient das DC aber dennoch für nachträgliche Betrachtungen...

viggen
PostRank 10
PostRank 10
Beiträge: 6249
Registriert: 12.05.2003, 14:44

Beitrag von viggen » 30.11.2005, 09:08

Traxx-X hat geschrieben:@Kristianwo bitte schön wird durch diesen "Bug" irgend etwas von Deinen Seiten "gedibelt"???
Wenn sich unter Google bei einer Seitenabfrage von "stats/bmw" eine url wie z.B.
stats.bmw.de/rdirect?url=http:/ /www.bansleben.de%2Findex1.htm findet, mit Titel "Aktuelles Wetter in Großenlüder - Bimbach bei Fulda in Osthessen" und der Beschreibung der Seite, dann fällt mir einiges ein was da "gedibelt" wird.

Google erkennt stats.bmw/rdirect?url=wasauchimmer als Seite von stats.bmw, "vermutlich wird das also bei der Google Bewertung stats.bmw angerechnet und bewertet und nicht mehr der Zielseite,

Einige Fragen bleiben hier auf jeden Fall offen,
Warum ist stats.bmw.de offen zugänglich? (Wegen der paid links im footer?)
Wie siehts copyrightmäßig aus? immerhin habe ich stats.bmw bei copyscape.com nach einer abfrage über abakus gefunden...
Warum wird bei stats.bmw der metatag INDEX,FOLLOW verwendet?

Imo, genug offene fragen um sich darüber lautstark zu äußern....

mfg
viggen

Airport1
PostRank 10
PostRank 10
Beiträge: 4489
Registriert: 16.08.2004, 18:50
Wohnort: Backnang / bei Stuttgart

Beitrag von Airport1 » 30.11.2005, 09:42

Wegen der 302 / Meta Sch... habe ich nich nur n Hijacking Aufspuer Script geschrieben, sondern fuehre schon seit einiger Zeit stetig wachsende Sperr-Listen...

Google und Hijacking Problem behoben? MITNICHTEN!

Es grenzt an Grausamkeit wie man dieses Problem ganz offensichtlich ignoriert, besteht es nicht schon seit Ende letzten Jahres?

Offensichtlich ist der auf Google ausgeuebte Druck nicht gross genug ;-)

Wenn man selber dagegen vorgehen moechte kaempft man gegegn Windmuehlen..
Linktauschanfragen zwecklos
https://www.bot-trap.de/ Spamschutz fuer Webmaster - zentrale Meldestelle fuer Web Spam
https://www.airport1.de/blog/ Lombagruschd Blog mid Gardadierle
https://www.ranking-hits.de/ Counter & PR Service

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag