Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

slow death - warum bloß?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Neues Thema Antworten
arod
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 07.06.2005, 16:39

Beitrag von arod » 01.07.2005, 12:40

Hallo,

nachdem ich vor einigen Monaten mein Forum suchmaschinentauglich gemacht habe, ging es gleich los: Es sind sehr viele Seiten bei Google ohne Titel und Beschreibung. Wie ich gehört habe, nennt man das wohl "slow death".

Ich wäre wirklich super-happy, wenn sich jmd mal das Phänomen anschauen könnte und mir sagen könnte, woran es liegt, ob es wirklich ein slow death ist und wie ich es "beheben" könnte.

Link zu Google-Suchergebnissen mit Slow Death


Mein Forum



Viele Grüße :)

Andreas
Suche Linkpartner aus dem Bereich Sport - Bei Interesse PM

Das Fanportal über Andy Roddick(PR 3)

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 01.07.2005, 14:18

Nicht alles, was wie Slow Death aussieht, ist slow death.

Manchmal ist es sowas wie doppelter Content.
Beispiel:
https://www.roddick-online.de/forum/fpost1172.html - google gelistet

https://www.roddick-online.de/forum/fpost1142.html - nicht gelistet

Was soll Google mit solchen Seiten machen ?
www.roddick-online.de/forum/post-quote-1437.html

Nen Account anlegen ?

netnut
PostRank 9
PostRank 9
Beiträge: 1931
Registriert: 30.10.2004, 01:24

Beitrag von netnut » 01.07.2005, 14:21

Ich weiss zwar nicht ob es wirklich zutrifft, aber ich vermute schon seit einiger Zeit dass dieser phpbb-mod ein riesen Problem ist, wenn man ihn so belässt wie er ursprünglich ist.

Warum? Dieser Mod produziert unmengen an doppeltem Content. Jeder Thread ist über mindestens 4 URLs zu erreichen: ftopic, ptopic, ntopic und fpost. Sollten dann noch alte URLs aus der "Vor-Mod-Zeit" hinzu kommen werden es noch mehr.

Wie gesagt, ich weiss nicht ob es der Grund ist, wundern würde es mich aber auf jeden Fall nicht...

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 01.07.2005, 14:22

robots.txt anpassen

webengine
PostRank 3
PostRank 3
Beiträge: 71
Registriert: 04.06.2005, 16:29
Wohnort: Schweiz

Beitrag von webengine » 01.07.2005, 14:32

Waren die Seiten bei Google schon einmal mit dem Inhalt im Index?? Ansonsten kann es auch sein, dass G erst die URL gespeichert hat und erst später den Inhalt auch noch aufnimmt. Das war bei vielen so, welche eine Google-Sitemap online stellten. Dort wurde bei neuen URLs auch zuerst nur die reine Adresse aufgenommen und später der Inhalt.
Wobei du aber klar schauen musst, dass du keinen doppelten Content hast.

arod
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 07.06.2005, 16:39

Beitrag von arod » 01.07.2005, 22:07

Pompom hat geschrieben:Nicht alles, was wie Slow Death aussieht, ist slow death.

Manchmal ist es sowas wie doppelter Content.
Beispiel:
https://www.roddick-online.de/forum/fpost1172.html - google gelistet

https://www.roddick-online.de/forum/fpost1142.html - nicht gelistet

Was soll Google mit solchen Seiten machen ?
www.roddick-online.de/forum/post-quote-1437.html

Nen Account anlegen ?
Ähm, (dumme) Frage: Warum ist denn bloß der gleiche Thread mit unterschiedlichen URLs der Struktur "fpostxxxx.html" zu erreichen? - Das war mir nicht bewusst und ich denke ich hab die mods sauber eingebaut.

Mit den Links "post-quote-xxxx.html": Ich dachte eigentlich, dass solche Adressen auch von den entsprechenden mods für google per robots.txt (oder sonstwie) unterdrückt werden. Ich habe sämtliche mods zu diesem Thema eingebaut und hatte mich nun auch gar nicht weiter mit dem code beschäftigt.

Waren die Seiten bei Google schon einmal mit dem Inhalt im Index?? Ansonsten kann es auch sein, dass G erst die URL gespeichert hat und erst später den Inhalt auch noch aufnimmt. Das war bei vielen so, welche eine Google-Sitemap online stellten. Dort wurde bei neuen URLs auch zuerst nur die reine Adresse aufgenommen und später der Inhalt.
Wobei du aber klar schauen musst, dass du keinen doppelten Content hast.
Nein, die Seiten waren nicht vorhe rim Index. Dann wird es hoffentlich, dass sein, was du sagst. klingt ja auch sehr überzeugend.

Mit dem doppelten Content: Wie kann ich das mit meinem phpbb verhindern? - Viel mehr als die bekannten Mods einzubauen, kann man (bzw. ich) ja leider nicht.

Sind diese Suchergebnisse vll Hinweise, dass ich die Short-URl-Mods nicht sauber eingebaut habe?


Viele Grüße

Andreas

PS: Und danke für die schnellen, kompetenten Antworten! :)
Suche Linkpartner aus dem Bereich Sport - Bei Interesse PM

Das Fanportal über Andy Roddick(PR 3)

[btk]tobi
PostRank 8
PostRank 8
Beiträge: 890
Registriert: 11.10.2004, 05:02
Wohnort: Stuttgart

Beitrag von [btk]tobi » 02.07.2005, 00:35

Das phpBB schaft einiges an doppeltem Content, mit normalem Short URL erleichterst du der Suchmaschine nur das zu merken.

Entweder du schreibst alles was ptopicX, ntopicX... erzeugt in ftopicX um oder du schmeist die Links einfach raus.

Wenn in deinem Forum nur angemeldete Besucher schreiben dürfen kannst du die Button für Antwort, Zitat und neues Thema einfach mit

Code: Alles auswählen

<!-- BEGIN switch_user_logged_in -->
CODE FÜR BUTTON
<!-- END switch_user_logged_in -->
für Gäste (Google) unsichtbar machen.
Die Links über den Beiträgen zum vorherigen oder nächsten Thema benutzt eh keiner also weg damit. Die Links im Index zum letzten Thema kannst du ja auch für Gäste ausblenden.

Schau dir einfach als Gast dein Forum an, such wo doppelter Content sein könnte und schaffe in ab. Robots.txt ist natürlich auch eine Möglichkeit aber darauf vertraue ich nicht wirklich.

netnut
PostRank 9
PostRank 9
Beiträge: 1931
Registriert: 30.10.2004, 01:24

Beitrag von netnut » 02.07.2005, 01:17

Die ptopics und ntopics bekommst Du ganz einfach mit dem showTopicTitle-mod weg. Mit den fposts ist das schon komplizierter und die sind besonders fies, da es für jeden Post eine extra URL gibt. Hast Du also zB 10 Posts pro Seite, so ist dieser Thread durch 10 verschiedene fposts zu erreichen.

Zum einen sind diese im index. Dort kannst Du sie wie tobi bereits sagte einfach ausblenden, ich habe mir das Script aber umgeschrieben so dass nun auch dort die ftopics angezeigt werden - und das sogar mit Sprung zum entsprechenden Post, es ist also möglich ;)

Ausserdem tauchen die fposts auch in der Suche auf und auch über die Profile der User (Beiträge anzeigen),


Die mods alleine reichen also nicht um ein sauberes Forum zu bekommen - ganz im Gegenteil :roll:


Und vergiss die robots.txt, zumindest bei mir ignoriert G regelmässig was da drin steht. Vielleicht liegts ja auch an mir und einer fehlerhaften robots, trauen tue ich der aber genauso wenig wie tobi.

arod
PostRank 1
PostRank 1
Beiträge: 26
Registriert: 07.06.2005, 16:39

Beitrag von arod » 03.07.2005, 18:52

Eine kurze Nachfrage:

Habe viel mit dem Code rumgespielt und viel nur für eingeloggte User sichtbar machen wollen. Nun ist aber vieles, was ich in den templates (z.B in der index_body.tpl) geändert habe auch für eingeloggte User nicht mehr sichtbar.

Hier meine index_body.tpl, wo ich z.B die letzten Beiträge rausgenommen habe...

Woran kann das liegen?
Suche Linkpartner aus dem Bereich Sport - Bei Interesse PM

Das Fanportal über Andy Roddick(PR 3)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag