Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Versuch der Anlayse/Ursache - Absturz vom 10.04.

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Surfer
PostRank 5
PostRank 5
Beiträge: 304
Registriert: 23.05.2006, 17:54

Beitrag von Surfer » 22.04.2007, 00:01

Um noch mal was schnell zu dem Beitrag zu sagen...

mir ist das nur jetzt aufgefallen, daß plötzlich meine pr6 domains, die zu mir linken plötzlich bei dem Backlinkcheck keinen PR mehr ausweisen. Gehe ich aber auf die Seite, ist ein PR vorhanden. Und bei meiner Seite sind das plötzlich sehr viele Seiten mit einem Minuszeichen. Das könnte schon passen, wenn man sich den Absturzpegel mal vor Augen hält. Erst in fast jedem Key Top10 und dann weg vom Fenster.

Ich weiß auch, daß man sich ne Menge zusammreimen kann, wenn der Tag lang ist und immer wenn die eigene Domain im Keller gelandet ist, alles irgendwie sensibler betrachtet und die Flöhe husten hört. Aber je mehr Anhaltspunkte man hat, desto besser ist es :wink: Schaden kann es aber nicht, wenn man die Hinweise mal austestet und Vergleiche anstellt.

Im übrigen hat der Programmierer von diesem Checker irgendwie auch Codes von Google bekommen und war überhaupt der Erfinder (Urvater) des PR Checks...von daher denke ich mal,das der Checker was wert ist ! ;-)



.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

tmmmy
PostRank 5
PostRank 5
Beiträge: 225
Registriert: 03.07.2006, 16:02

Beitrag von tmmmy » 22.04.2007, 07:26

meine domain hat 403 links ,davon 273 -PR

früher hatte ich über 1000 BL bei diesem tool

tmmmy
PostRank 5
PostRank 5
Beiträge: 225
Registriert: 03.07.2006, 16:02

Beitrag von tmmmy » 22.04.2007, 07:30

hat jemand den Webmaster schon angefragt was -PR bedeutet?

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

tmmmy
PostRank 5
PostRank 5
Beiträge: 225
Registriert: 03.07.2006, 16:02

Beitrag von tmmmy » 22.04.2007, 08:18

jetzt hab ich nochmal einen check gemacht und diesesmal findet das Tool 1400 BL

scheint nicht genau zu sein.

übrigens hatte ich bei einer seite wo vorher -PR stand PR2

PR- bedeutet vermtl das das tool kein PR gefunden hat überlastung oder so

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 22.04.2007, 09:08

surfer hat geschrieben:Ich weiß auch, daß man sich ne Menge zusammreimen kann, wenn der Tag lang ist und immer wenn die eigene Domain im Keller gelandet ist, alles irgendwie sensibler betrachtet und die Flöhe husten hört. Aber je mehr Anhaltspunkte man hat, desto besser ist es Schaden kann es aber nicht, wenn man die Hinweise mal austestet und Vergleiche anstellt.
Das ist richtig, daher finde ich den Beitrag auch gut.

Grüße :wink:

kill_bill
PostRank 8
PostRank 8
Beiträge: 882
Registriert: 07.07.2005, 00:31
Wohnort: Meppen

Beitrag von kill_bill » 22.04.2007, 11:13

Zum Analyse-Tool von seo-consulting:
Ich habe den Eindruck, dass dieses Tool nur PRs von Seiten anzeigen kann, die das Tool auch öffnen kann - hat das schon jemand geprüft (es waren aktuell wärend des BL-Checks ein paar Domains nicht zu erreichen und deren Werte waren _zufällig_ alle PR -, ausserdem würde das zumindest die von tmmy beobachtete PR-Differenz erklären)?

Bei einer abgestürzten, geprüften Domain habe ich fast 40% mit PR -

Mal ein kurzer Wertevergleich seo-consulting / linkvendor (nur Yahoo):

seo-consulting zeigt jeweils weniger BLs an:
PR6 4
PR5 4
PR4 14
PR3 16
PR2 30
PR1 12

Bei den Ergebnissen von seo-consulting ist mir folgendes aufgefallen:

Bei einem Artikelkatalog ist mir aufgefallen, dass er DC produziert und die URL, die einen PR hat, von seo-consulting garnicht gelistet wird.

Bei einem anderen Artikelkatalog wurde der komplette Artikel auf der Kommentarseite erneut ausgegeben (also DC) und auch hier wurde die "normale" Artikelseite, die einen PR hat, von seo-consulting nicht gelistet.

Viele Seiten mit den Begriffen und/oder Dateinamenbestandteilen Linklisten, Linktipps, Links, Tips, sowie auch Pseudosumas mit hohem DC-Gehalt (zeigen beispielsweise gegrabbte Google-Ergebnisse an) ... ergeben einen PR- obwohl die Toolbar-Anzeige PR ausgibt.

Ist nur die Frage, ob diese Differenzen die Stärken oder Schwächen des Tools sind.

kill_bill
PostRank 8
PostRank 8
Beiträge: 882
Registriert: 07.07.2005, 00:31
Wohnort: Meppen

Beitrag von kill_bill » 22.04.2007, 11:18

Gurgelboot hat geschrieben:Sehe das mit dem Tool etwas kritsisch...
Weil:
  • Ein BL mit "-PR" ausgerechnet vom Google Directory kommt :roll:
Da das Google Directory afaik ja immer noch ein DMOZ-Clone ist, könnte auch dieses PR - auf DC hinweisen.

Surfer
PostRank 5
PostRank 5
Beiträge: 304
Registriert: 23.05.2006, 17:54

Beitrag von Surfer » 22.04.2007, 12:48

Bei den Ergebnissen von seo-consulting ist mir folgendes aufgefallen:

Bei einem Artikelkatalog ist mir aufgefallen, dass er DC produziert und die URL, die einen PR hat, von seo-consulting garnicht gelistet wird.

Bei einem anderen Artikelkatalog wurde der komplette Artikel auf der Kommentarseite erneut ausgegeben (also DC) und auch hier wurde die "normale" Artikelseite, die einen PR hat, von seo-consulting nicht gelistet.

Viele Seiten mit den Begriffen und/oder Dateinamenbestandteilen Linklisten, Linktipps, Links, Tips, sowie auch Pseudosumas mit hohem DC-Gehalt (zeigen beispielsweise gegrabbte Google-Ergebnisse an) ... ergeben einen PR- obwohl die Toolbar-Anzeige PR ausgibt.

Ist nur die Frage, ob diese Differenzen die Stärken oder Schwächen des Tools sind.
das hast du sehr gut beobachtet. :wink: genau das ist mir auch aufgefallen. seiten bei denen ich auch irgendwie bauchschmerzen hatte, zeigen mir in diesem tool tatsächlich einen -PR oder sind seiten teilweise gar nicht in der liste vorhanden, wogegen andere checker diese seiten lustig weiter anzeigen.

beim internetbaron checker z.bsp. wird am ende immer gleich der neue pr mit ausgerechnet, und da steht bei mir zukünfitiger PR statt 5 eine 4 :o obwohl ich 4x Pr6 seiten auf mich zeigen habe.

unter anderem ist da auch ein rankingservice dabei, der überhaupt nicht mehr angezeigt wird !!! ihr wisst schon, die mit dem grünen balken...

und jetzt sehe ich ja, das sich plötzlich in der top10 pr3 seiten mit 6 bl´s herumsielen und bei google lichtjahre vor mir stehen :idea: was mich natürlich neugierig macht und ich die seiten auch mal gecheckt habe....und bingo, bei dem werden aber die rankingservices angezeigt und statt einem 3er PR bekommt die seite zukünftig einen 5er. ja ist denn so was möglich ???? und das google gegen diese rankingseiten wa hat, weiß ja jeder hier ;-) aber dann mißt google mit zweierlei maß ?!

also sage ich mir, daß doch tante g ihre finger da im spiel hat...weil letztlich der bl checker auch nur seine daten auch einem google datencenter bezieht.

jetzt steht für mich nur die frage: ABSICHT, IRRTUM ODER ERROR ???

weil Fakt ist, daß sich die seiten in der suma so verhalten, wie es der checker auch ausgibt :wink:

eine andere these von mir ist, daß google sich die ersten 50 seiten in wichtigen suchanfragen zur brust genommen hat und die genau durchleuchtet hat. weil ja die seiten dort irgendwie hingekommen sein müssen. so das speziell durchleuchtet worde, wo die links herkamen, wie engmaschig die netzwerke aufgebaut sind usw. dabei wurden seiten die ausserhalb dieser (mal angenommen) 50er bannmeile lagen, nicht untersucht. das würde dann auch das abrutschen vieler top10 seiten erklären und das zeitgleich wesentlich schwächere seiten plötlich aufwind bekommen haben, bis die dann durchleuchtet werden.

diese taktik hätte dann zur Folge, daß nur noch 99% saubere seiten in den top50 in zukunft stehen werden...und das dort ständig bewegung ist.
der trick an dieser taktik ist, daß ja eifrige seo´s ihre seiten immer in der top10 sehen wollen und google spart sich einfach rechenpower, immer milliarden seiten durchkämmen zu müssen..die machen jetzt die mausefallen taktik..."irgendwann holt die maus sich ihren speck...und dann kommt der scanner"

wie gesagt ist nur eine hypothese von mir, aber vom logischen und wirtschaftlichen aspekt für den betreiber, durchaus denkbar und vor allen sehhhhr einfach. das der google bot, durch die vielen filter und routinen im gegensatz zu yahoo und msn in letzter zeit etwas sehr träge geworden ist, weiß auch jeder hier..und neuerdings sehe ich aber, daß er alle paar tage den cache erneuert, so daß mir die hypothese noch logischer erscheint.


.

Gurgelboot
PostRank 8
PostRank 8
Beiträge: 769
Registriert: 22.01.2005, 02:23

Beitrag von Gurgelboot » 22.04.2007, 16:59

Ich werde dieses Tool nochmal anwenden, wenn meine Site mal wieder drin ist (sollte das nochmal passieren :roll: ), wenn diese Phase länger anhält kann das vielleicht eine Aussage darstellen.

Checkt doch mal eure Wettbewerber, die nicht Achterbahn fahren - Ist es bei denen signifikant anders?

Also bei meinen nicht... :roll:

Grüße :roll:

Scubi
PostRank 8
PostRank 8
Beiträge: 947
Registriert: 22.08.2003, 19:38

Beitrag von Scubi » 22.04.2007, 21:24

Ich könnte mir auch vorstellen, das dieser -PR dadurch kommt, das viele Webmaster einfach die IP des Checkers gespert aheben.

Bin mir nicht sicher, ob der Checker durch Bot-Trap gesperrt wird. Ist aber vorstellbar und sinnvoll. Ich persönlich hasse all diese Checker und versuche, sie von meinen Servern fern zu halten.

Gruß Scubi

Surfer
PostRank 5
PostRank 5
Beiträge: 304
Registriert: 23.05.2006, 17:54

Beitrag von Surfer » 23.04.2007, 01:38

Hier wieder mal was neues aus der Absturzszene.

Ich stehe wieder in allen Keys an meinen alten Positionen. Ich arbeite gerade an einer Seite von einem Kumpel und will eigentlich feierabend machen, komme versehentlich in der Google Toolbar auf mein altes Key und denke, ich träume :o oder traue meinen Augen nicht. Wieder in der TOP10 und gleich alle Keys durchprobiert und bei einigen Keys sogar um einiges besser gelistet als vorher.

Aber wollen wir den Tag nicht vor dem Abend loben. Mal sehen, wie stabil sich das hält.
Und ob das wieder nur ein Rülpser des versehens war :roll:

Ich halte Euch auf dem laufenden :wink:

.

To-Bi-As
PostRank 6
PostRank 6
Beiträge: 443
Registriert: 08.10.2006, 02:20

Beitrag von To-Bi-As » 23.04.2007, 02:12

Schön dass es hier jetzt um irgendwelche Backlinks geht und nicht mehr um die Frage von "google_hupf". Eine Antwort darauf würde mich nämlich auch interessieren. Habe das gleiche Problem und dachte schon ich spinne das kann icht sein. Ist aber auch bei mir so.

ich habe z.b. auch Ort, Region, Land. Nunmal gibt es viele Regionen in einem Land, aber auch viele Orte in einer Region, daher ist es das gleiche wie bei google_hupf.

GreenHorn war jetzt der einzige der eine Antwort auf die Frage gegeben hat, wobei ich ja hoffe dass die nicht stimmt. Aber es war die einzige Antwort.

Feststellen kann ich aber, dass wenn man den Titel und die Description ändert, dass dann die Positionen wieder deutlich besser werden. Aber hallo, ich kann für über 100k Seiten nicht für jede eine Meta-Angaben verfassen, das macht das Script.

Kann auch bestätigen dass das Single-Key besser rankt als die Kombi, obwohl es zum Single 30 Mio Ergebnisse gibt und zur Kombi "nur" 400k. Linktausch erfolgt ansich nur mit Kombis....

Also wäre schön wenn die Diskusion wieder an den Anfang zurückfinden würde.

Gruß.

Surfer
PostRank 5
PostRank 5
Beiträge: 304
Registriert: 23.05.2006, 17:54

Beitrag von Surfer » 23.04.2007, 03:11

@To-Bi-As

ich dachte immer das Forum hier heißt "Versuch der Anlayse/Ursache - Absturz vom 10.04." und nicht "beantwortet nur die Frage von Google_Hupf. Und ich denke, daß hier jede Menge Anhaltspunkte und Gründe für die Ursachen unter die Lupe genommen worden sind. Die Frage von Google_Hupf sah doch so aus, als wenn die schon abgehakt war. Oder Täusche ich mich da ? Dann Sorry, daß ich dazwischengefunkt habe. Hier haben doch aber schon viele geschrieben, daß dies keine Auswirkungen hat, wenn man nicht 10x ein Keyword hintereinander in seine Texte reinspamt. Wichtiger ist doch, das hier Leute berichten, was sie beobachtet haben, oder das Seiten wieder aus der Versenkung zurück gekommen sind, ohne etwas verändert zu haben...weil das nämlich hilft, ellenlanges herumexperimentieren von vornherein sein zu lassen.

Daran kann man doch schon einiges erkennen ohne großartig noch über Titles und H1 Texte herumzudiskutieren.

Hier mal ein Beispiel von mir:
Ein bekannter von mir hat eine Seite im Auto Navigationsbereich und bei ihm habe ich auch das Phänomen, was Google_Hupf beschreibt erlebt. Mal waren die Unterseiten mit Kombi Key alle durch die Bank in der TOP10 zu 80% Pos.1. Dann 3 Wochen später waren die gleichen Seiten völlig aus der Wertung. Heute stehen die Seiten wieder zu 50% in der TOP10 oder TOP50 und einige Seiten sind immer noch nicht aus der Versenkung zurück. Keine einzige Seite hat dort gleiche Bezeichnungen, bis auf die Primär Keys, die ja der Ordnung halber sein sollten. Auf jeder einzelnen Seite sind auch Kategorien mit H1 H2 und H3 definiert.

Solange nicht alle Seiten gleich bezeichnet werden und sich die Themen in Art einer Kategorie Aufteilung unterscheiden, werden diese Seiten auch nicht von Google anders behandelt, wie jede andere normale Seite auch.

Es ist doch auch klar, daß eine Seite über Bäume, auf jeder Unterseite wieder das Thema spezifizieren muß und logischerweise kommen da auch ungewollte Wiederholungen vor. So lange die Wiederholungen nicht im Spam enden und man ein wenig die Keyworddichte im Auge behält, passiert da gar nichts. Der Google Bot ist schon so programmiert, daß er Spamtexte erkennt. Also Sätze und Überschriften, in denen unlogischerweiße bei mal angenommen 10 Wörtern, 5 mal das Wort Baum vorkommt...nur Spammer und Dummköpfe würden solche Texte verfassen.

Auch wird nichts passieren wenn ich eine H1 Überschrift benutze, in der das Wort "Baum" vorkommt und das gleiche Wort wieder in Kombination mit einem Unterwort "Tanne" in einer H2 Überschrift wieder auftaucht.

Nur sollte man darauf achten, das die Texte nicht nur aus Bold <b> und H1,2,3 usw. Überschriften bestehen.

So würde ich das mal beschreiben wollen, in der Frühe um 4:00 Uhr

.

tmmmy
PostRank 5
PostRank 5
Beiträge: 225
Registriert: 03.07.2006, 16:02

Beitrag von tmmmy » 23.04.2007, 06:27

Surfer hat geschrieben:Hier wieder mal was neues aus der Absturzszene.

Ich stehe wieder in allen Keys an meinen alten Positionen. Ich arbeite gerade an einer Seite von einem Kumpel und will eigentlich feierabend machen, komme versehentlich in der Google Toolbar auf mein altes Key und denke, ich träume :o oder traue meinen Augen nicht. Wieder in der TOP10 und gleich alle Keys durchprobiert und bei einigen Keys sogar um einiges besser gelistet als vorher.

Aber wollen wir den Tag nicht vor dem Abend loben. Mal sehen, wie stabil sich das hält.
Und ob das wieder nur ein Rülpser des versehens war :roll:

Ich halte Euch auf dem laufenden :wink:

.
schau mal ob du jetzt gleich viel PR - im BL chech tool hast

google_hupf
PostRank 2
PostRank 2
Beiträge: 47
Registriert: 06.01.2006, 12:28

Beitrag von google_hupf » 23.04.2007, 12:02

To-Bi-As hat geschrieben:Habe das gleiche Problem und dachte schon ich spinne das kann icht sein.
"Freut mich" klingt jetzt gemein, aber gemein-sam finden wir vielleicht eine Erklärung und dann auch Lösung...
To-Bi-As hat geschrieben:Feststellen kann ich aber, dass wenn man den Titel und die Description ändert, dass dann die Positionen wieder deutlich besser werden.
Welche genau hast Du verändert?
Ich habe (wie gesagt) "meta description" und <title> für jede Seite individuell - nur die "meta keywords" sind auf meinem ganzen Projekt einheitlich, weil es ja um dasselbe Thema geht...

Ich habe jetzt einmal die "Meta descriptions" dahingehend verändert, dass ich sie etwas erweitert habe (um Schnipsel aus dem individuellen Code der Seite).

Gleichzeitig habe ich den "Tabellentrick" angewandt, um zu verhindern, dass er die Navigation als Content wertet und zuviel Ähnlichkeiten sieht.

Gegen eine Änderung der <title> sträube ich mich (noch). da sie eindeutig formuliert sind und dem Nutzer m.E. Übersicht bieten.

Ist es sinnvoll, die "meta keywords" zu ändern? Ich ging immer davon aus, die werden untergewichtet und dienen Google nur dazu das "Umfeld" zu bestimmen ... hatte auch mal gehört, wenn die auch ZU treffende Begriffe enthalten, würde das eher abgestraft.
Andererseits sehe ich, dass einige andere Seiten sogar "Meta description" und "Meta keywords" identisch haben?

Wie machst Du es, wie sind Deine Erfahrungen?

Zur Emutigung:
Einen solchen Absturz habe ich ca. 1 mal pro Jahr für 1 bis 3 Monate - früher habe ich nie etwas geändert und die Positionen kamen wieder.
Da aber auch der Absturz Methode zu haben scheint, würde ich gerne die Seite so aufstellen, dass sie konstant-er bleibt...

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag