Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Das reicht mir. 95+% der Bots werden damit abgedeckt und der Rest interessiert mich nicht mehr, weil ich wie gesagt nicht mehr zwischen Gast und Bot unterscheide, außer bei der internen Session-Verwaltung. Und diese ganzen Filter auf die IP bringen eh nichts außer Performance-Nachteile mit sich. Ab einer gewissen Anzahl von Seitenaufrufen wird das einfach zu einem Problem.RW hat geschrieben:Ich arbeite jetzt aus Performance-Gründen aber nur noch mit:
UA: bot,crawler,java,search,spider
erscheint unzureichend !
Ich denke Das solltest Du nochmals bei Deinen Seiten überdenken!
DC hat damit jetzt nichts zu tun. Ich wollte nur ausdrücken, dass Google als gefakter Besucher von mir eine Session ID erhalten hat, weil die alle Gäste bekamen (jetzt nicht mehr) und deswegen die ID im Index auftauchte.Das ist mir bekannt gewesen, dennoch denke ich wird nur ein hash der Seite erzeugt und mit dem Datenbankeintrag abgeglichen.
Beispiel:
erzeugt Dublikate weil Prüfsumme a == Prüfsumme bCode: Alles auswählen
$a = 'http://www.maxrev.de/felgenbett-polieren-mit-oder-ohne-klarlack-t28752,start,40.htm'; $b = 'http://www.maxrev.de/viewtopic.php?t=28752&start=40'; $a == $b
Verstehe ich nicht. Hab ich doch gar nicht behauptet. Ich hab doch nur gesagt, dass ich nicht auf Cookies verzichten kann wg. meinen Usern. Wenn ich also alle Besucher ohne Cookies als Bots bewerte, schließe ich eine gewisse Gruppe von Besuchern ebenfalls aus, weil die sich dann nicht mehr einloggen bzw. Beiträge schreiben könnten. Das wollte ich damit nur ausdrücken.Ich lasse mich gerne vom Gegenteil überzeugen das die Google Bots Cookies verstehen.Falls Du damit meinst, dass ich Cookies zur Prüfung heranziehen soll... das kann ich nicht, weil meine Seite auch ohne funktioniert und von vielen so genutzt wird.
Ich kann mich gerne wiederholen. Es interessiert mich nur, warum meine Subdomain höher gewertet wurde, da ich selbst auch den Verdacht auf eine Abstrafung oder ähnliches hatte. Und ich denke Du wüsstest auch gerne, warum Deine Seite abgestraft ist.Wenn dich aber der PR nicht interessiert, wieso dann überhaupt das Thema? Wenn mich was nicht interessiert, dann interessiert es mich auch nicht
Genau das gleiche würde ein Autointeressierter über Abakus sagen. "In dem Forum steht nur Schrott über irgendwelche Suchmaschinen drin und wer welchen PR hat". Überleg doch mal was Du da sagstUnd in den Foren steht auch nur Schrott drin, was keine Sau interessiert... außer jemand will gerade wissen was Mike für ein Auto fährt und wie er es umgebaut hat... da gibt es aber sicher übersichtlichere Seiten um sich Ideen zu holen.
1. Zählen ist nicht deine grosse Stärke oder, ich kann dir gern mehr als 10 oder 20 Gästerbücher bringen hierIch bleibe nunmal dabei, dass ich nicht wüsste, was ich jemals falsch gemacht haben sollte
ja das wäre durchaus eine Möglichkeit, vielleicht jemand der sich dadurch gestört fühlt das du mehr sein willst als du bist eben mit SEO etcEs kann ja auch gut sein, dass meine Seite irgendjemanden nicht passt und er mich auf dubiosen Seiten verlinkt hat oder welche lustigen Mittel es da noch geben mag.
Code: Alles auswählen
Bei denen frage ich mich eher, ob da nicht was im Busch ist, was keiner erfahren sollten.
Ich machs auch gerne selber, denn langsam bin ich es echt satt:wulfo hat geschrieben:1. Zählen ist nicht deine grosse Stärke oder, ich kann dir gern mehr als 10 oder 20 Gästerbücher bringen hier
Habe ich nie geschrieben. Ich habe geschrieben, wenn es 1.000 Links in Gästebücher wären, wären es bei Abakus sogar mehr. Weder das eine, noch das andere stimmt.2. Dann solltest du mal die Links von webby sehen, der sich ja auch deiner Meinung nach da eingetragen hat, versuche mal den Unterschied rauszufinden![]()
Ein "SEO Shop" ist weit aus spezieller als "Honda Civic Tuning". Da kannst Du hier auch gleich nach "Homepage Tuning" suchen. Der Begriff "Tuning" ist viel zu allgemein (Lackierung, Motor, Interieur, Hifi, usw.) und in der Szene benutzt den Begriff auch keiner für irgendwas bestimmtes. Und Civics existieren jetzt bereits in der 8. Generation, damit deckst Du also gerade mal locker 100 verschiedene Modelle ab. Wenn Du in Google "Auto Tuning" (oder auch "Honda Civic Tuning") eingibst, findest Du auch nichts. Da sind Shops bunt gemischt mit Internetforen. Ist eben zu allgemein. Woher sollte man da wissen, was der Besucher eigentlich will. Kaufen? Informieren? Bilder? usw...Beloe007 hat geschrieben:wenn ich aber nach "tuning honda civic" suche würde mich dein Forum nicht wirklich weiter bringen... weil ich mich dann erstmal durch tonnenweise Spam durcharbeiten müsste.
Bei abakus ist das umgekehrt, wenn ich nach "mikes SEO" suchen würde, wäre abakus der falsche Ort... wenn ich aber nach "Seo shop" suche wäre abakus ein hilfreiches Ergebnis.
mgutt sagt:Daher habe ich als "Fehlerkorrektur" im Januar diesen Jahres entschieden,
dass alle Gäste mit sid umgeleitet werden. Also auch jeder Bot.
Klick auf eins der Ergebnisse, du wirst sofort auf den Ursprungseintrag weitergeleitet.
Und $b war schon immer per robots.txt verboten. Seit ca. 2 Wochen ist $b laut robots.txt erlaubt, wird aber auf $a permanent weitergeleitet. Trotzdem hat Google erstmal $b mit Content gefüllt, statt der Weiterleitung zu folgen, was die Vermutung zulässt, dass Google die Seiten noch im Index hatte und vorher sehr wohl eingelesen hat oder sie der Weiterleitung erst später folgen und den Zielcontent solange aufnehmen.
mgutt sagt:Dies ist der Cache von Google von https://www.maxrev.de/viewtopic.php?t=28752&start=40.
Es handelt sich dabei um ein Abbild der Seite, wie diese am 20. Febr. 2009 12:17:30 GMT angezeigt wurde. Die aktuelle Seite sieht mittlerweile eventuell anders aus. Weitere Informationen
Ich behaupte:Und diese ganzen Filter auf die IP bringen eh nichts außer Performance-Nachteile mit sich. Ab einer gewissen Anzahl von Seitenaufrufen wird das einfach zu einem Problem.
Um DC ging es auch nicht.. es ging darum das Du Deine Maßnahmen überdenkstDC hat damit jetzt nichts zu tun. Ich wollte nur ausdrücken, dass Google als gefakter Besucher von mir eine Session ID erhalten hat, weil die alle Gäste bekamen (jetzt nicht mehr) und deswegen die ID im Index auftauchte.
ja bei dir war ich es ja auch schon mal, und rate mal warum?wulfo bist du wirklich so frustriert, dass dir nichts anderes einfällt als die seiten und namen der forummitglieder herauszusuchen und sie versuchen runterzumachen, ihnen sachen zu unterstellen und behauptungen aufzustellen ohne die geringste ahnung zu haben.
das ist so armselig.
Welchen Widerspruch willst Du damit darstellen?RW hat geschrieben:mgutt sagt:mgutt sagt:Daher habe ich als "Fehlerkorrektur" im Januar diesen Jahres entschieden,
dass alle Gäste mit sid umgeleitet werden. Also auch jeder Bot.
Klick auf eins der Ergebnisse, du wirst sofort auf den Ursprungseintrag weitergeleitet.Google sagt:Und $b war schon immer per robots.txt verboten. Seit ca. 2 Wochen ist $b laut robots.txt erlaubt, wird aber auf $a permanent weitergeleitet. Trotzdem hat Google erstmal $b mit Content gefüllt, statt der Weiterleitung zu folgen, was die Vermutung zulässt, dass Google die Seiten noch im Index hatte und vorher sehr wohl eingelesen hat oder sie der Weiterleitung erst später folgen und den Zielcontent solange aufnehmen.Dies ist der Cache von Google von https://www.maxrev.de/viewtopic.php?t=28752&start=40.
Es handelt sich dabei um ein Abbild der Seite, wie diese am 20. Febr. 2009 12:17:30 GMT angezeigt wurde. Die aktuelle Seite sieht mittlerweile eventuell anders aus. Weitere Informationen
Ich weiß nicht, warum ich mich auf diese Kinderkacke überhaupt einlasse, aber es sind 8 Millionen im Monat. Und wenn das nach Deiner Definition nicht viele sind, dann stimmt Deine Aussage. Ich wüsste auch nicht, was die Anzahl der Seitenzugriffe auszusagen hätte. Ob man die Performance bei 10.000 Aufrufen oder mehreren Millionen verbessert, ist doch grundsätzlich nichts falschesmgutt sagt:Ich behaupte:Und diese ganzen Filter auf die IP bringen eh nichts außer Performance-Nachteile mit sich. Ab einer gewissen Anzahl von Seitenaufrufen wird das einfach zu einem Problem.
einfach das Gegenteil.....
So viele Seitenzugriffe erzeugst Du mit Deinen Seiten nicht![]()
Willst Du Dich jetzt auf Definitionen festbeißen, dann ist es doch klar, dass die Diskussion zu keinem Ende führt.mgutt sagt:Um DC ging es auch nicht.. es ging darum das Du Deine Maßnahmen überdenkstDC hat damit jetzt nichts zu tun. Ich wollte nur ausdrücken, dass Google als gefakter Besucher von mir eine Session ID erhalten hat, weil die alle Gäste bekamen (jetzt nicht mehr) und deswegen die ID im Index auftauchte.
Google als gefakter Besucher ist kein Bot...
als auch von wulfo:Ich glaube das möchtest Du nicht wirklich !wenn Du Dich nicht wirklich mitteilen möchtest.
Wenn ich ein Problem mit der Wahrheit hätte, würde ich sicherlich nicht in einem öffentlichen Forum schreiben und dazu noch meinen Namen drunter setzen.ich kann dir gern mehr als 10 oder 20 Gästerbücher bringen hier
Eben waren es noch 1.000 und jetzt reicht bereits 1 Gästebucheintrag. Kann auch gut sein, aber dann sag das direkt und stell mich nicht als Spammer hin.Rubrik Gästebuchspam (eigene Erfahrung):
Denunzianten / Mitbewerber
benötigen nicht einmal einen Eintrag im Gästebuch (auf ihren Seiten) um Deine Seiten bei Google zu melden. Es reicht wenn Sie sehen dass Du es so machst.
Google kann sich ja gerne viel merken und es mag jetzt heute auch das Problem sein, dass ich in Gästebüchern stehe, aber ich glaube bei Dir ist noch nicht angekommen, dass ich den Vorwurf des Spams nicht auf mir sitzen lasse, genauso wenig wie die Sache mit den angeblich 1.000 Einträgen. Das rechtfertige ich und ich ignoriere dabei rein gar nichts.ich weis nicht warum man sich dann so engstirnig hinstellen muss und sagt, nein das ist nicht so, das war doch vor langer Zeit.
Ja das war vor langer Zeit, nur Google hat halt ein gutes Gedächtniss.
Und auch das was RW schreibt solltest du auch mal überdenken.
Du machst es eben aber umgedreht du versuchst dann solche Hinweise zu ignorieren und dich zu rechtfertigen.
schon gelesen, mal als WortDeine Hauptdomain hat ganz einfach einige zu viele schlechte Links, und Googel wertet da meiner Meinung nach auch ab einen Bestimmten % Gästebücher, Linkslisten etc.
Code: Alles auswählen
Prozente
Code: Alles auswählen
Eben waren es noch 1.000 und jetzt reicht bereits 1 Gästebucheintrag. Kann auch gut sein, aber dann sag das direkt und stell mich nicht als Spammer hin.
Ja klar, nicht allein eingetragen, und den Weihnachtsmann gibt es bestimmt auch, ganz sicherdann muss ich noch aus allen Linklisten raus, wo ich mich selber nicht mal eingetragen habe.
Reicht doch in der Regel aus was man gefunden hat, oder?Ihr findet einfach nichts anderes, genauso wenig wie ich, ansonsten würdet ihr Euch nicht so darauf festbeißen. So sehe ich das nun mal.
Sind Du und RW jetzt schon eine Person oder was? Natürlich hast Du das nicht geschrieben. Habe ich Dir oder RW geantwortet? Ich weiß ich kann nicht lesen, aber Duwulfo hat geschrieben:ich habe nie gesagt das 1 oder2 Gästebucheinträge schädlich sind sondern
Also laut den Webmaster Tools habe ich 8 Gästebücher in meinen Backlinks gefunden, womit ich dann bei 0,0x% liege (keine Ahnung ob man diese Zahlen laut Google veröffentlichen darf, daher mal nur Richtwerte). Linklisten finde ich dagegen in ca. 3-5% aller Backlinks, bei bike.maxrev.de dürften es um die 70-80% sein, da auf den meisten Linklisten auch diese Subdomain erscheint und sonst wie gesagt tote Hose bei den Backlinks angesagt ist. Das hieße ja, dass viele Linklisten vorteilhaft für den PR sind und 0,0x% Gästebücher zur Abstrafung führen. Danke, jetzt bin ich überzeugtschon gelesen, mal als WortDeine Hauptdomain hat ganz einfach einige zu viele schlechte Links, und Googel wertet da meiner Meinung nach auch ab einen Bestimmten % Gästebücher, Linkslisten etc.und das ist bei deiner Seite eindeutig im Verhältniss zu den anderen Links zu hoch.Code: Alles auswählen
Prozente
Wo siehst Du das bitte? Ich habe weder in Yahoo (die ich ja nach Deiner Anmerkung sogar einzeln durchgegangen bin) noch in den Google Webmaster Tools mehr als 20 gefunden. Sogar in der Google-Suche selbst habe ich nach Einträgen gesucht, da ich immer im Text meine Seite genannt habe, war das eine gute Basis, um danach zu suchen. Aber da habe ich gerade mal 6 gefunden und das sogar die gleichen, die in Yahoo schon standen.Bei dir sind es mehr als 20 bei weitem mehr und das nennen eben manche auch schon mal Spam, und wenn du das nicht verstehst tut es mir leid für dich.Code: Alles auswählen
Eben waren es noch 1.000 und jetzt reicht bereits 1 Gästebucheintrag. Kann auch gut sein, aber dann sag das direkt und stell mich nicht als Spammer hin.
Mal abgesehen von meinen eigenen Linklisten, trage ich mich nie irgendwo ein. Wenn man jetzt mal vom DMOZ absieht, wo ich mich selber als Editor eintragen durfte.Ja klar, nicht allein eingetragen, und den Weihnachtsmann gibt es bestimmt auch, ganz sicherdann muss ich noch aus allen Linklisten raus, wo ich mich selber nicht mal eingetragen habe.
Klar, seitdem ich es Dir erzählt habe. Du hast mir das mit dem DC gesagt und ich habe Dir dann erzählt, dass der bereits dezimiert wird, weil ich den Fehler auch schon erkannt habe. Danach hast Du aber nicht mehr locker gelassen, sonst hätte der Punkt auch einfach abgehakt werden können.Ich kann nicht wissen welche Änderungen Wann und Wo Du an Deinen Seitenstrukturen gemacht hast.