Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Komische site Ergebnisse

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Phantom20
PostRank 6
PostRank 6
Beiträge: 463
Registriert: 11.01.2006, 13:39

Beitrag von Phantom20 » 14.02.2006, 12:40

Hallo,

heute habe ich deutlich weniger Ergebnisse bei der site Abfrage, außerdem ist meine index nicht mehr im index. Hoffentlich ist dass nur vorübergehend. Ich habe nichts in letzter Zeit an der Seite verändert.

Weiß da jemand was?

edit: ist nicht auf allen Datacentern

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Phantom20
PostRank 6
PostRank 6
Beiträge: 463
Registriert: 11.01.2006, 13:39

Beitrag von Phantom20 » 14.02.2006, 13:05

Ich konnte gestern folgendes beobachten,
ich benutze einen Weiterleitungshack im Forum.

https://www.meinedomain.de/redir.php?ur ... edomain.de

Gestern war kurz im Index solch ein link drinnen

"Titel der externen Seite
"Beschreibung der externen Seite
https://www.meinedomain.de/redir.php?ur ... edomain.de"

Phantom20
PostRank 6
PostRank 6
Beiträge: 463
Registriert: 11.01.2006, 13:39

Beitrag von Phantom20 » 15.02.2006, 14:40

Hallo,

sorry für das dritte Posting, wäre aber schön wenn mir jemand weiterhelfen könnte. Um mehr Infos zu geben:

Es handelt sich bei der domain um ein Forum mit PR5, das Forum ist mit mod_rewrite optimiert und hat zusätzlich noch das standardmässige Archiv (auf einer gewissen Weise also doppelter content)
Die domain hatte bei google um die 600.000 links im index. Seit einigen Tagen befinden sich deutlich weniger links auf den Datacenter. Bei einigen nur noch 437.000 ohne index (die Startseite ist nicht drinnen!!) und bei einigen Datacentern mit index aber nur insgesamt mit ca. 250.000 Ergebissen. Habe das Gefühl, dass es weniger werden... weiß da jemand was?

Vielen Dank.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 15.02.2006, 14:49

wenn du wirklich dc produzierst, dann guck mal unter "slow death" nach ... ansonsten könntest mal die url posten (event. per pn)
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

Phantom20
PostRank 6
PostRank 6
Beiträge: 463
Registriert: 11.01.2006, 13:39

Beitrag von Phantom20 » 15.02.2006, 14:51

Hallo,

danke schonmal. Das läuft jetzt aber seit mehreren bzw. vielen Monaten so und gab nie Probleme.

hab dir die url per pm geschickt.

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 15.02.2006, 14:56

Benutzt Deine redir.php? einen 302er? Das könnte erklären, warum kurz die andere Seite angezeigt wurde. Stichwort - > Hijacking.

Warum lässt Du Google den sowohl das Forum als auch das Forumarchiv spidern? Wie seo-optimiert ist das Forum denn? Wenn das gut gemacht ist, brauchst Du die Archive ja eigentlich nicht.

Genaueres kann ich Dir auch erst sagen, wenn ich die URL kenne (gerne auch pm).

Phantom20
PostRank 6
PostRank 6
Beiträge: 463
Registriert: 11.01.2006, 13:39

Beitrag von Phantom20 » 15.02.2006, 15:16

Hallo chris21,

uff dass weiß ich (noch) nicht, das war ein hack für die entsprechende Forenversion. Das Forum ist gut optimiert (html mit keyword in den urls). Habe das Archiv parallel laufen lassen weil es nie Probleme gab und noch zusätzlich traffic geliefert hat.

Habe die die url auch per pm geschickt.

Vielen Dank.

ole1210
PostRank 10
PostRank 10
Beiträge: 7464
Registriert: 12.08.2005, 10:40
Wohnort: Olpe

Beitrag von ole1210 » 15.02.2006, 15:22

Hatte heute morgen auch kurz das Phänomen, das die index.html aus Index geflogen war. Ist jetzt aber wieder drin.

Scheinbar hat da ein DC nen kleinen Schluckauf!

Phantom20
PostRank 6
PostRank 6
Beiträge: 463
Registriert: 11.01.2006, 13:39

Beitrag von Phantom20 » 15.02.2006, 15:24

Mir bei ist dieses Phänomen seit ca. 2-3 Tagen bei der Hältfe der Datacentern. Noch mehr beunruhigt mich dass auf manchen ca. 200.000 Seiten fehlen und auf den anderen ca. 400.000 Seiten. Schwanken tut das immer mal, klar, aber nicht in dem Maßen.

Steffi
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 06.12.2004, 03:43

Beitrag von Steffi » 15.02.2006, 15:29

Ja, kann ich bestätigen.

Auf manchen DCs steigt die Seitenzahl auf anderen fällt sie.
Völlig planlos. Zudem sind auch wieder alte Urls mit bei, die ich schon 2 mal per Url-Console gelöscht hab....

Pretender
PostRank 9
PostRank 9
Beiträge: 1081
Registriert: 22.04.2004, 14:44
Wohnort: Naumburg

Beitrag von Pretender » 15.02.2006, 15:31

Wenn Du wirklich doppelten Content produzierst hast oder es noch tust, dann liegt es mit ziemlicher Sicherheit daran und kann durchaus bedeuten, daß Deine Domo fliegt oder stark abgewertet wird.

ob es bisher so ging oder nicht, spielt daqbei keine Rolle, den irgendwann ist immer das erste mal. google ist jeze sehr straff hinterher was dC angeht und daheer sind jeze viele domos mit DC fällig - so wie Deine ebend auch (scheinbar)

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 15.02.2006, 15:49

Die Schwankungen müssten Dich nicht beunruhigen. Die DatenCenter zeigen teilweise des öfteren Schwankungen in dieser Höhe an. Beunruhigend wäre nur, wenn Du auf einem oder allen Datencentern beobachten könntest, dass es immer weniger Seiten auf diesem Datencenter werden. Oder das auf allen Seiten ein Abfall der Ergebnisse stattfindet.

Was ich mich gerade frage: kann es möglich sein, dass Du durch die Auswahl verschiedener Styles (?styleid=1, ?styleid=137, etc.) Duplicate Content produzierst? Denn bei Google habe ich z.B. Deine Indexseite mit letzterem Anhängsel auf Position 1 entdeckt.

Bzgl. der SEO-Optimierung ist mir aufgefallen:

"/post/47848/Gedichte.html"

und

"thread/724/3/Gedichte.html"

liefern z.B. die gleichen Ergebnisse und damit Duplicate Content.

Mit lastpost und firstnewpost wird es wohl auch Probleme geben.

Allerdings kämpfen viele Foren mit diesen Problemen und daran sollte es nicht scheitern. Wenigstens hat Google mal letztens angekündigt, seine Algos bzgl. Duplicate Content innerhalb einer Seite zu überdenken.

Die redir.php wird durch einen Meta-Refresh weitergeleitet, was einen Hijack auslösen könnte.

Am Besten wäre es, die redir.php in der robots.txt vom Spidern auszuschliessen.

(also: "Disallow: /redir.php")

Phantom20
PostRank 6
PostRank 6
Beiträge: 463
Registriert: 11.01.2006, 13:39

Beitrag von Phantom20 » 15.02.2006, 15:59

Hallo chris21,

Das mit den styles war wahrscheinlich von der Vergangenheit noch was, es existiert kein link.

Das mit der post bzw. thread geschichte ist glaube ich nicht weiter wild.

Matin hatte per pm gefragt was mit den normalen links ist (https://www.modernboard.de/thread.php?.....) (die unoptimierten)

Diese leitet auf diesselbe Seite weiter wie www.modernboard.de/thread/id/threadname.html)

Diese php links (unoptimiert) sind noch im Archiv zu finden. Ich glaube daran könnte es mittlerweile liegen. Weil ich glaube nicht dass google ein Problem mit dem Archiv hat (andere Quelltext, Formatierung).

Aber die "richtigen" Forenthemen sind identisch. Diese links im Archiv auf die optimierte struktur (/thread/id/threadname.html) umzustellen, stellt kein Problem dar, ist wohl dass erste was ich ändern sollte.

Das mit der redir.php werde ich machen. - Vielen Dank.

matin
PostRank 9
PostRank 9
Beiträge: 1427
Registriert: 08.09.2005, 15:16
Wohnort: Grünburg

Beitrag von matin » 15.02.2006, 16:12

chris21 hat geschrieben: (also: "Disallow: /redir.php")
hm ... ich bin mir nicht sicher, aber ich glaube, dass der googlebot nur ganze verzeichnisse in der robots akzeptiert. einzelne dateien können nicht ausgeschlossen werden. aber da haben andere sicher mehr erfahrung mit ...

ich würde einfach das jump-script herausnehmen.
https://suchmaschinentricks.at/ - Ziehen Sie die Aufmerksamkeit im Internet auf sich ...
Kaufe verschiedene Projekte mit entsprechendem Content - Kontaktaufnahme per PN

chris21
PostRank 9
PostRank 9
Beiträge: 2758
Registriert: 10.04.2005, 18:17

Beitrag von chris21 » 15.02.2006, 17:26

@matin:

Doch, man kann einzelne Files ausschliessen:

https://www.robotstxt.org/wc/norobots.html#examples

(auch von Google zitiert.)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag