Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Seite mit dem höchsten PageRank: eine unwichtige Subdomain

Alles zum Thema Google Pagerank und Backlink Updates.
mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 09.03.2009, 18:58

wulfo hat geschrieben:Kann es sein das du zu sehr nach PR schaust?? Haben die Postionen deiner Seite nachgelassen ok dann würde ich es noch verstehen wenn du dir Gedanken machst.

Und Abakus ist defenitiv nicht gefallen in den Serps, jedenfalls nicht auf länger Sicht.
Ich habe weder das eine noch das andere behauptet. Im Gegenteil, wenn Du meinen ersten Beitrag gelesen hast, wirst Du feststellen, dass mir der PR vollkommen wurscht ist.
Ja super, hast deinen Linkpartner bestimmt allen einen anderen Platz gegeben, diese benachrichtigt etc,
Ansonsten wärst du ein sehr unzuverlässiger Partner.
Kennst Du mich oder meine Linkpartner? Nein, dann spar Dir solche Kommentare! Die meisten meiner ehemaligen Linkpartner sind mir schon lange Jahre bekannt und ich habe wirklich besseres zu tun, als wg. ein paar Wochen Backlinkvorteil einen guten Kontakt zu verlieren.
du hast auch keinen Link der einen höheren PR gerechtfertigt ....
Den hatte ich noch nie, trotzdem hatte die Seite mal nen PR6. Aber das habe ich auch nicht beanstandet. Ich frage mich nur, dass eine noch unbekanntere Subdomain "besser" da steht. Mir ist es also egal, dass ich nur einen PR3 habe. Ich frage mich, warum meine Subdomain einen PR4 hat. Und wie schon häufiger geäußert wurde, müsste es wohl an einer Abstrafung liegen.
jup das nenne ich auch mal Gästebuchspam vom feinsten, und er wundert sich wirklich?
Ich kann mich wirklich nicht entsinnen sowas in der Art jemals betrieben zu haben, außer das ich einfach mal Grüße hinterlassen habe und das auch nicht massenweise auf irgendwelchen wahllosen Seiten. Wäre nett, wenn man mir das mal per PN zeigt, was da jetzt scheinbar wieder entfernt wurde.

@ wulfo
Ich biete übrigens kein SEO an, genauso wenig wie Webdesign. Man soll nicht immer alles glauben, was im Internet steht. Und ja die Seite gehört mir. Es ist äußerst praktisch, ständig unterschätzt zu werden ;)
Ich kaufe Dein Forum!
Kontaktdaten

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

wulfo
PostRank 9
PostRank 9
Beiträge: 994
Registriert: 05.02.2004, 17:28
Wohnort: Sachsen

Beitrag von wulfo » 09.03.2009, 19:34

hi Mgutt

Auszug deiner Seite https://www.gutt.it/
Marc Gutt Services bietet Ihnen:
- Webdesign
- den kompletten Internetauftritt
- Geschwindigkeitsoptimierungen in ihren bestehenden PHP Scripten und MySQL-Datenbankabfragen
- Suchmaschinenoptimierung (SEO)
- Suchmaschinenmarketing (SEM)
und dazu diese Aussage

Code: Alles auswählen

@ wulfo 
Ich biete übrigens kein SEO an, genauso wenig wie Webdesign. Man soll nicht immer alles glauben, was im Internet steht. Und ja die Seite gehört mir. Es ist äußerst praktisch, ständig unterschätzt zu werden
soviel zu deiner Glaubwürdigkeit :idea: wenn man so was auf seine Seite schreibt und dannach im selben Atemzug behauptet ich mache das doch garnicht, mal ehrlich was würdest du von solchen Leuten halten??
Richtig Idi..... 0X

Code: Alles auswählen

Es ist äußerst praktisch, ständig unterschätzt zu werden 
man unterschätzt dich nicht, du überschätzt dich :idea: ein kleiner aber feiner Unterschied

genau so wie du net(t)worker angehst mit Sprüchen

Code: Alles auswählen

Dumme Kommentare habe ich erwartet, aber nicht von der Moderation.


er hat recht mit dem was er schreibt

Code: Alles auswählen

öhm... seit 2005 hier angemeldet und dann immernoch nicht wissen wie es zum Pagerank kommt?  

naja... kommt halt vor... 
Zum Thema Linkspamming Gästebücher, anzeige über 1000 Einträge zeigt nicht gerade das man sich da ab und zu mal wo eingetragen hat, und das hat dann auch mal was mit PR zu tun

Code: Alles auswählen

Ich kann mich wirklich nicht entsinnen sowas in der Art jemals betrieben zu haben, außer das ich einfach mal Grüße hinterlassen habe und das auch nicht massenweise auf irgendwelchen wahllosen Seiten. Wäre nett, wenn man mir das mal per PN zeigt, was da jetzt scheinbar wieder entfernt wurde. 
warum den per PN dürfen doch andere auch sehen, hast dich doch nur nett in ein paar Gästebücher eingetragen
https://de.search.yahoo.com/search?p=li ... TF-8&rd=r1

du magst halt die vielen webseiten, und hast dich bestimmt bei allen auch genau auf der Seite umgeschaut um solche Grüsse

Code: Alles auswählen

Hallo,

mich auch mal eintragen wollte.

Schöne Grüße!

MfG Marc
sinnvoll und absolut nicht spammig :wink:
Genau solche Nasen wie du sind es die den ganzen Zweig SEO in ein schlechtes Licht gerückt haben

Anonymous

Beitrag von Anonymous » 09.03.2009, 19:58

was solln der Kindergarten? das sind alles User aus seinem Forum... die haben nen Link in seiner der Memberliste. die Meisten freuen sich sogar drüber, wenn der "Forenadmin" mal hallo sagt...

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

JohnBi
PostRank 10
PostRank 10
Beiträge: 2957
Registriert: 22.02.2009, 20:31

Beitrag von JohnBi » 09.03.2009, 20:07

jo, wulfo hat Recht ... und beweist mal wieder ganz deutlich das Anmeldedatum und Postrank nichts mit der Qualität der Aussagen der Mitglieder zu tun hat ... leider...
Probleme mit Google & Co.? Hier die Lösung! - Linktausch?! | Projekt kaufen?! |
-------------------------------------------
Der PostRank und das Anmeldedatum stehen in keinem Verhältnis zur Qualität der Antworten einiger User. {JohnBi, 2009}

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 10.03.2009, 00:28

wulfo hat geschrieben:soviel zu deiner Glaubwürdigkeit :idea: wenn man so was auf seine Seite schreibt und dannach im selben Atemzug behauptet ich mache das doch garnicht, mal ehrlich was würdest du von solchen Leuten halten??
Entschuldige mal. Ich hab keinen auf meine private Seite gebeten. Die Seite habe ich hier auch nirgends erwähnt. Es hat nunmal seine Gründe, warum es besser ist als Webdesigner, statt als Seitenbetreiber aufzutreten. Alleine schon bei finanziellen Verhandlungen, hat das große Vorteile. Das mache ich nicht, um mich als SEO-Spezialist darzustellen oder sowas. Schau ins Web Archive. Die Seite ist schon so alt, wie ich im Netz aktiv bin. Früher habe ich wirklich mal Webdesign betrieben. Heute blockt sie ungebetene Leute ab. Oder meinst Du wirklich, dass mir jemand eine Anfrage für ein Webdesign sendet, bei der Seite, die ich da habe?
man unterschätzt dich nicht, du überschätzt dich :idea: ein kleiner aber feiner Unterschied
Wo überschätze ich mich? Ich vermute mal, dass Du das jetzt in den falschen Hals bekommen hast. Ich meinte nicht, dass SEOs mich unterschätzen, sondern welche, die mich wg. meinen Seiten kontaktieren. Und dabei gehts nicht um SEO oder Webdesign, sondern darum, dem kleinen Programmierer von nebenan einen von einem super Angebot zu erzählen und ähnliches... ich hoffe man versteht jetzt warum ich das noch online habe ;)

Das hatte jetzt nichts mit diesem Forum oder meiner Anfrage zu tun. Sofern das missverstanden wurde, tut mir das natürlich leid.

Die Antwort zu Networkers Beitrag war passend. Wir bewegten uns zu diesem Zeitpunkt auf dem gleichen Niveau.
Zum Thema Linkspamming Gästebücher, anzeige über 1000 Einträge
...
warum den per PN dürfen doch andere auch sehen, hast dich doch nur nett in ein paar Gästebücher eingetragen
https://de.search.yahoo.com/search?p=li ... TF-8&rd=r1
:lol: guter Witz!

Mal im Ernst, hast Du mal auf die 2. oder 3. Seite oder 4. Seite geschaut? Ich habe jetzt nur sporadisch geschaut, aber ich glaube, das waren nicht mal 10 Gästebücher. 3 der Einträge sind nicht mal von mir, sondern von Usern meiner Seite gewesen. Und dass es kein Spam war, siehst Du schon am ersten Eintrag, wo der Webseiteneigner mich zurückgegrüßt hat, da er mich kennt, wie nunmal die meisten aus dem Markensektor. Im Jahr 2004, aus dem diese Einträge größtenteils stammen, hat man sich häufiger über Gästebücher unterhalten, als über Foren.

Wenn Ihr die Resultate in Yahoo durchklickt, stellt Ihr schnell fest, dass viele meine Seite verlinkt haben, aber zusätzlich das Wort "Gästebuch" auf der Seite stehen haben. Dabei direkt auf einen Spam-Eintrag meinerseits in irgendwelchen Gästebüchern zu schließen ist nicht nur falsch, sondern zeigt, dass ihr nicht mal richtig schaut, sondern einfach nur mit Vorurteilen an die Sache herangeht.

Demnach hätte Abakus sogar mehr gespammt als ich (1.300 Ergebnisse):
https://de.search.yahoo.com/search?p=li ... rt=1&b=111

Wäre schön, wenn ihr diesen Fehler eingesteht und wir uns wieder auf einem normalen Level unterhalten könnten.

Ich bleibe nunmal dabei, dass ich nicht wüsste, was ich jemals falsch gemacht haben sollte außer, dass ich in 2006 mal 1:1 Linkpartner hatte, was bis heute aber immer noch viele haben, die nicht abgestraft sind. Und zum damaligen Zeitpunkt hat sich deswegen noch keiner Gedanken gemacht. Ich hatte die Linkpartnerschaften auch nur zum Test aufgegeben, um zu schauen, ob sich dadurch irgendwas ändert. Und es hat sich nichts geändert. Was mir zum damaligen Zeitpunkt belegte, dass ich sie nicht brauche.

In 2006 hat noch kein Hahn nach "1:1 Linktausch = Spam" gekräht. Vielleicht erinnert ihr euch schwach, aber die PR-Abwertung wurde erst 2008 eingeführt.
RW hat geschrieben:@ mgutt
Ich frage mich wirklich warum Du überhaupt schreibst, wenn Du Dich nicht wirklich mitteilen möchtest. Dieses ständige hinterfragen Deiner Beiträge nervt. Wenn Du Dein Wissen für Dich behalten willst, dann schreib nicht in einem Forum, sondern verkauf Dich in Seminaren
Ich glaube das möchtest Du nicht wirklich !

:idea:
Gib mir mehr von den dunklen Geheimnissen. :lol:

Sorry, aber Ihr habt jetzt ins Fettnäpfchen getreten, da darf ich auch mal kontern :P
Ich kaufe Dein Forum!
Kontaktdaten

SeriousBadMan
PostRank 10
PostRank 10
Beiträge: 4005
Registriert: 16.06.2008, 22:26
Wohnort: Welt

Beitrag von SeriousBadMan » 10.03.2009, 01:14

wulfo hat geschrieben:Hi RW da magst du recht haben, nur er bietet SEO https://www.gutt.it/ selber an, und dann so was? Und fragt dann auch noch warum?
also das ist ja jetzt schon geklärt, er bietet kein seo an, aber jetzt mal was andres um von eurem hickhack wegzukommen:

selbst profis machen mal fehler oder stürzen mal in den SERPS ab. das ist (dachte ich) normal, denn linkbuilding birgt immer gefahren, selbst wenn es nur über linkbaits läuft (ups, wir wurden wegen dem bait von soovielen seiten verlinkt, dass wir mit der kreditseite erstmal ganz tief in nem filter hängen).

aber was ich eigentlich sagen wollte, wenn ihr einen richtigen seo wollt, der eure seite toll optimiert und günstig ist, seid ihr hier richtig:
https://www.my-hammer.de/db/EDV-Telekom ... vigation=1


ähm... da fehlt mir jetzt der smiley :P

ich denke, wenn man sowas sieht, dann kann man sicher sagen, dass jeder semi-professionelle mir da lieber ist, als jmd. der solche (betrugs?)geschäfte anbietet. was sind das wohl für suchbegriffe? kredit, pkv und sex? oder eher "hommingberger gepardenforelle", "ganz schnell mit google suchen" und "wieso ist google eigentlich so blöd?"

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 10.03.2009, 10:12

Gib mir mehr...
Wenn Du die Basisfehler auf Deinen Seiten beseitigt hast können wir gerne darüber Diskutieren.
Google sagt <> Google sieht
Seite == Seite

Yahoo zeigt nicht alle Gästebücher :roll:

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 10.03.2009, 12:35

RW hat geschrieben:Google sagt <> Google sieht
Der "Fehler" ist schon länger behoben. Das Script verfügt über eine Bot-Erkennung und unterdrückt im Falle vom Google-Bot die sid (das ist schon seit 2006 oder länger so). Google hat aber in den letzten 6 Monaten auch Bots eingesetzt, die nicht mit der üblichen Kennung unterwegs sind. Daher habe ich als "Fehlerkorrektur" im Januar diesen Jahres entschieden, dass alle Gäste mit sid umgeleitet werden. Also auch jeder Bot. Klick auf eins der Ergebnisse, du wirst sofort auf den Ursprungseintrag weitergeleitet.
Auch der Parameter "iframe" ist ein Relikt von früher. Auch hier war eine Boterkennung im Einsatz, die vor ca. 6 Monaten fehlschlug. Aber auch dieser "Fehler" wurde behoben. Google braucht ne ganze Weile, bis der Index bereinigt wurde. Auch hier kannst Du jedes Ergebnis anklicken und wirst zum Originaleintrag weitergeleitet.

Hier der Code, falls man mir nicht glaubt ;)

Code: Alles auswählen

// redirect wrong seo url
$uri = $_SERVER&#91;'REQUEST_URI'&#93; ? $_SERVER&#91;'REQUEST_URI'&#93; &#58; '';
if &#40;strpos&#40;$uri, '-t'&#41; !== false&#41; &#123;
	$seo_title = clean_url&#40;_censor&#40;$posts->topic&#91;'topic_title'&#93;&#41;&#41;;
	if &#40;$seo_title != '-'&#41; &#123;
		$uri_title = preg_match&#40;'#\/&#40;.*&#41;-t#', $uri, $matches &#41;;
		$uri_title = $matches&#91;1&#93; . '-';
		if &#40;$uri_title != $seo_title&#41; &#123;
			redirect&#40;$config->url&#40;$requester, array&#40;POST_TOPIC_URL => $topic_id&#41; + $posts->parms, true, '', '', _censor&#40;$posts->topic&#91;'topic_title'&#93;&#41;&#41;&#41;;
		&#125;
	&#125;
&#125;
// redirect dc
else if &#40;$_SERVER&#91;'REQUEST_URI'&#93; == '/viewtopic,p,' . $_GET&#91;'p'&#93; . '.htm' || $_SERVER&#91;'REQUEST_URI'&#93; == '/viewtopic,t,' . $_GET&#91;'t'&#93; . '.htm' || strpos&#40;$_SERVER&#91;'REQUEST_URI'&#93;, 'viewtopic.php'&#41; !== false&#41; &#123;
	redirect&#40;$config->url&#40;$requester, array&#40;POST_TOPIC_URL => $topic_id&#41; + $posts->parms, true, $post_id, '', _censor&#40;$posts->topic&#91;'topic_title'&#93;&#41;&#41;&#41;;
&#125;
Durch diese Änderung, werden auch 99% dieser Links verschwinden (aktuell 257.000 Ergebnisse, vor ca. zwei Wochen noch 297.000):
https://www.google.de/search?hl=de&safe ... N&filter=0

Auf die Crawling-Geschwindigkeit von Google habe ich leider keinen Einfluss.

Aber ich danke Dir, dass Du Dir jetzt so viel Mühe gemacht hast. Wenn noch weitere Fehler vorhanden sein sollten, dann immer her damit... Forumaugen sehen bekanntlich mehr als 2. :)

Nur ist das wirklich der Grund, warum die Hauptdomain geringer gewertet wurde als die Sudomain? Schließlich basieren beide Seiten auf den gleichen Scripten und damit hatte die Subdomain das gleiche Problem.
Yahoo zeigt nicht alle Gästebücher :roll:
Selbst wenn es 20 Einträge sind. Es besteht ja wohl ein kleiner Unterschied zwischen 20 Einträgen und 1.000 und Grüße hinterlassen und gezielten Linkspam zu verbreiten?! Wenn ich den hätte verbreiten wollen, hätte ich sicherlich ein paar mehr hinterlassen.

Man möge mich für meinen schlecht formulierten 2-Zeiler verurteilen, weil er nicht persönlich genug war.. ich gestehe! :lol:
Ich kaufe Dein Forum!
Kontaktdaten

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 10.03.2009, 14:32

@mgutt

Das große Hoffen auf die Fehlertoleranz von Google....

Zumindest passt es so

:idea:
Zuletzt geändert von RW am 10.03.2009, 16:45, insgesamt 1-mal geändert.

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 10.03.2009, 15:16

Das hatte ich auch mal gedacht. Meinst Du Google wertet dynamische Seiten schlechter oder aus Sicherheitsgründen, damit keiner die PHP-Version ermitteln kann bzw. der maginalen Trafficersparnis (oder alles :P)?
Fehlertoleranz
Nun man geht ja grundlegend nicht davon aus, dass ein Botfilter von Google nach 4 Jahren Einsatz umgangen wird. Ist Zufall, dass mir das vor kurzem aufgefallen ist. Aber belegt ganz klar, dass man nicht zwischen Gast und Bot unterscheiden sollte. Unter dem Strich schafft man es eh nicht.
Ich kaufe Dein Forum!
Kontaktdaten

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 10.03.2009, 16:23

HI,

Das mit der PHP-Version gehört in die Rubrik:

"Reich der Vermutungen und Fabelwesen"

Du machst doch aus Deinen dynamischen *.php Seiten
>>>>>>>> statische *.htm
Warum soll man im Header mitsenden das man PHP benutzt?
Geht doch Keinen (Google) was an!

Nun man geht ja grundlegend nicht davon aus, dass ein Botfilter von Google nach 4 Jahren Einsatz umgangen wird. Ist Zufall, dass mir das vor kurzem aufgefallen ist. Aber belegt ganz klar, dass man nicht zwischen Gast und Bot unterscheiden sollte. Unter dem Strich schafft man es eh nicht.
Mit der Masse an IP Bereiche ist Google nun auch nicht unterwegs......

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 10.03.2009, 16:29

Neben dem USER_AGENT war natürlich auch ein Filter auf alle bekannte IP-Bereiche aktiv. Darüber kann es also eigentlich nicht sein. Daher kann ich mir das nur über eine unbekannte IP mit normalem USER_AGENT erklären.

Der Header ist jetzt übrigens weg. Kannst Du Deinen Beitrag entsprechend ändern? Muss ja nicht jeder wissen, was für eine Version ich einsetze.
Ich kaufe Dein Forum!
Kontaktdaten

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 10.03.2009, 17:01

HI,
...ein Filter auf alle bekannte IP-Bereiche aktiv.
Zeig mal her das Ding :lol:

... eine unbekannte IP mit normalem USER_AGENT erklären.
Sowas machen die ???

https://www.google.de/search?q=htaccess+cookie

mgutt
PostRank 10
PostRank 10
Beiträge: 3206
Registriert: 08.03.2005, 13:13

Beitrag von mgutt » 10.03.2009, 23:40

RW hat geschrieben:
...ein Filter auf alle bekannte IP-Bereiche aktiv.
Zeig mal her das Ding :lol:
UA: googlebot
IPs: 216.239,64.68.82,64.68.86,64.209.181,64.208.33.33,66.249

War ein Oder-Vergleich, d.h. wenn der UA nicht getroffen hat, checkte er die IP-Range.

Ich arbeite jetzt aus Performance-Gründen aber nur noch mit:
UA: bot,crawler,java,search,spider

Und unterscheide ansonsten nicht mehr zwischen Gästen und Bots. Die Bots werden nur simpler vom Session-Management behandelt, daher habe ich überhaupt noch eine Boterkennung drin.
... eine unbekannte IP mit normalem USER_AGENT erklären.
Sowas machen die ???
Ja:
https://www.sistrix.de/news/724-referre ... osoft.html
Falls Du damit meinst, dass ich Cookies zur Prüfung heranziehen soll... das kann ich nicht, weil meine Seite auch ohne funktioniert und von vielen so genutzt wird.
Ich kaufe Dein Forum!
Kontaktdaten

RW
PostRank 6
PostRank 6
Beiträge: 436
Registriert: 23.07.2003, 08:54

Beitrag von RW » 11.03.2009, 09:15

HI,

IMO sollte das:
'72.14.192.0/18','209.85.128.0/17','66.249.64.0/19','74.125.0.0/16',
für DE reichen in Kombination mit:

Code: Alles auswählen

gethostbyname&#40;gethostbyaddr&#40;$ip&#41;&#41; == $ip&#41;
für unbekannte Teile.
Ich arbeite jetzt aus Performance-Gründen aber nur noch mit:
UA: bot,crawler,java,search,spider

erscheint unzureichend !
Ich denke Das solltest Du nochmals bei Deinen Seiten überdenken!



... eine unbekannte IP mit normalem USER_AGENT erklären.
Sowas machen die ???
Ja:
https://www.sistrix.de/news/724-referre ... osoft.html

Das ist mir bekannt gewesen, dennoch denke ich wird nur ein hash der Seite erzeugt und mit dem Datenbankeintrag abgeglichen.

Beispiel:

Code: Alles auswählen

$a = 'http&#58;//www.maxrev.de/felgenbett-polieren-mit-oder-ohne-klarlack-t28752,start,40.htm';
$b = 'http&#58;//www.maxrev.de/viewtopic.php?t=28752&start=40';
$a == $b
erzeugt Dublikate weil Prüfsumme a == Prüfsumme b
Falls Du damit meinst, dass ich Cookies zur Prüfung heranziehen soll... das kann ich nicht, weil meine Seite auch ohne funktioniert und von vielen so genutzt wird.
Ich lasse mich gerne vom Gegenteil überzeugen das die Google Bots Cookies verstehen. :idea:

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag