Seite 1 von 2

arbeitsgruppe phpBB suchmaschinenoptimierung

Verfasst: 26.11.2004, 00:03
von bugscout
moin moin,

möchte arbeitsgruppe gegen den phpbb suchmaschinenmüll
gründen (80 threads machen 400 treffer im index) und nach ner weile
sieht es dann so aus
https://www.google.de/search?q=site:www ... t=110&sa=N

suchmaschinenfreundliches forum sozusagen, indem der nicht-content
auch nicht gespidert wird und das dreifach bis x-fach indizieren des
contents unterbleibt

grüsse

Verfasst:
von

Verfasst: 26.11.2004, 00:12
von manuelfu
@ bugscout

Ich wäre dabei - leider sieht es zeittechnisch bei mir so aus, dass ich vor Anfang März keine freie Minute mehr haben werde ... falls ich doch etwas Zeit haben werde, dann bin ich gerne dabei.

Gruss,
Manuel

Verfasst: 26.11.2004, 00:43
von Southmedia
Kleiner Tipp der als Schnellhack funktionieren könnte:
https://www.suchmaschinenwiki.de/robots.txt - Googlebot versteht Wildcards.

Verfasst:
von
Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Verfasst: 26.11.2004, 02:01
von bugscout
moin jan

bei mir tauchen immer die nur links-serps auf bei

Code: Alles auswählen

profile.php?mode=viewprofile&u=xxx
profile.php?mode=sendpassword
privmsg.php?mode=post&u=xxx
search.php?search_author=xxx
posting.php?mode=reply&t=xxx
posting.php?mode=quote&p=xxx
posting.php?mode=newtopic&f=xxx
viewforum.php\?f=xxx&mark=topics
viewtopic.php?t=xxx&view=previous
viewtopic.php?t=xxx&view=next
sowas will ich halt auch nicht

Code: Alles auswählen

www.suchmaschinenwiki.de/PagerankMitFirefox/referrers
Ähnliche Seiten 
webbys

Code: Alles auswählen

/foren/privmsg/mode-post/u-161.html 
ist da schon netter mit

Code: Alles auswählen

Disallow: /foren/privmsg/ 
wobei mein

Code: Alles auswählen

Disallow: /cgi-bin/
Disallow: /cgi-bin/outbound.pl
auch schon durchgespidert wurde,
hoffentlich kaper ich nicht alle domains damit. 8)

da auch hier im forum fast alle

Code: Alles auswählen

http://www.abakus-internet-marketing.de/foren/privmsg/mode-post/u-xxx.html
pagerank haben werden sie anscheinend auch gespidert, irgendwann
schlägt da bei einem weniger starken forum die xxxfach-content-klatsche zu, da alle mode-post/u-xxx.html seiten sich ziemlich ähnlich sehen.

da auch

Code: Alles auswählen

Disallow: ptopic*.html$ # previous topic
Disallow: ntopic*.html$ # next topic
immer wieder gespidert wurden, hab ich die links
erstmal quick and dirty auskommentiert, besser
wäre aber wie bei session-id, das nur den gästen
vorzuenthalten

diverse änderungen hab ich schon gemacht, wie diverse unsinnige links entfernt.

z.b.
https://www.abakus-internet-marketing.d ... m/f-1.html
hat oben einen [edit] zwei [/edit] link "Ich hab' da mal 'ne Frage", der sich selbst lädt
oder das entfernen der user-links bei den beiträgen wenn nicht angemeldet
oder die ganzen &c=xx links auf der startseite

und das da

Code: Alles auswählen

if ( !empty($post_id) ) {
	 
                $template->assign_block_vars('switch_meta_noindex', array()); 
        }
schaltet wenn der thread nicht über &t=xx angesteuert wird, sondern über
$p=xx ein meta-noindex, nicht schön, ging aber am schnellsten, da die
kiste schon läuft.

suchmaschinenfreundlich heisst eben in dem fall nicht nur, dass die seiten
am besten gefunden werden, sondern auch dass der index entlastet wird.
von der double-content problematik oder der traffic entlastung auf dem
server mal ganz abgesehen.

muss ja nicht alles so aussehen :-?
https://www.google.de/search?q=site:www ... t=100&sa=N

oder gar so
https://www.google.de/search?q=site:www ... rt=10&sa=N
da ist ab treffer 10 schon alles tot 0X

grüsse

Verfasst: 27.11.2004, 22:07
von Legende
hya .. befasse mich momentan mit dem gleichen thema bei meinen beiden neuen foren .. ist doch mit einem guten stück arbeit verbunden aber ich hasse auch doppelten forum content in den SUMAs

grüsse

Verfasst: 28.11.2004, 14:34
von Webby
Jep, ich hab immer ewin bischen schiß gehabt wegen duplikate content mit den ganze next und previous sache. Als autoität aber ist es keine problem. Aber falls ich eine neue forum hattest wird ich das ganzes anders machen, nicht nur mit robots.txt aber auch mit .htaccess.

Alan

Verfasst: 28.11.2004, 14:50
von CMA
Guten Mittag!
Ein sehr interessantes Thema! So gesehen müsste alle URLs entweder einheitlich geschrieben werden (previous/next)
Ist bei meinen beiden Foren leider auch so, 3000 Postings und mit site sinds 25.000 ergebnisse..

Verfasst: 20.12.2004, 14:17
von Webby
Schaumal oben, wo die viewprevious und next links sind. Dank etwas kleveres programmierung (hab outgesourced) sind diese links jetzt direkt auf die topic gewandelt. Google wird sich freuen :-)
Das bedeutet keine duplizierte inhalt mehr.
Jetzt wird die index seite thema links (ganz rechts) neu gemacht worden.

Alan

Verfasst: 20.12.2004, 14:40
von bugscout
moin alan

bei mir läuft ne testversion, bei der alle links, die nicht
gebraucht werden mit javascript umgeschrieben werden.

mit den /foren/viewtopic/p-78626.html#78626 probiere ich
gerade rum, leider sind bei meinen versuchen bis jetzt die
pfade zu den images immer falsch.

bin auf der suche wie ich das ohne änderung in jeder datei
wegbekomme.

grüsse

Verfasst: 20.12.2004, 19:15
von Eistee
Hallo,

ich habe mir da vor längerer Zeit bei meinem Forum auch mal Gedanken gemacht, und genau wegen dem "double content" keinen bekannten PHPBB-SEO Mod genommen. Ich war damals paranoid was duplicate content angeht ;)

Es müsste jede Themenseite wirklich nur einmal indiziert werden. Ein paar ganz alte Links aus den ominösen "Zusätzliche Ergebnisse" Indizes sind halt noch drin und momentan auch viele "blaue" Treffer ;)

Aber es dürfte keinerlei double content mehr hinzukommen:

https://www.google.de/search?hl=de&q=si ... mmen&meta=

Verfasst: 21.12.2004, 09:49
von mauri
frage: warum sperrst du es nciht einfach mit der robots.txt file aus, oder verstehe ich was nicht?
gruss
mauri

Verfasst: 21.12.2004, 09:56
von Garfield
ganz einfach, mauri:

weil die ganzen leeren Seiten nicht in den Index sollen.

Schau dir einfach mal an, was bei meinem Forum mit mod_rewrite rauskommt :

*klickmich*

Das sieht doch fürchterbar aus, und bringen tuts mir doch auch nix, würd ich sagen.

Was soll ich mit 10.800 Seiten im Index, von denen gute 7.000 oder so Müll sind und durch robots.txt gesperrt ?

Verfasst: 21.12.2004, 10:04
von mauri
danke garfield, also verstand ich es doch richtig, nun man speert es einfach mit der robot text file.
hatte da meinen doc dran gemacht und heute zieht er alles schoen ordenlich rein.
mit :

Disallow: /forum/admin/
Disallow: /forum/cache/
Disallow: /forum/docs
Disallow: /forum/db/
Disallow: /forum/files/
Disallow: /forum/images/
Disallow: /forum/includes/
Disallow: /forum/language/
Disallow: /forum/templates/
Disallow: /forum/common.php
Disallow: /forum/config.php
Disallow: /forum/groupcp.php
Disallow: /forum/memberlist/
Disallow: /forum/memberlist.php
Disallow: /forum/modcp/
Disallow: /forum/privmsg
Disallow: /forum/profile
Disallow: /forum/search
Disallow: /forum/statistics.php
Disallow: /forum/viewonline.php
Disallow: /forum/login
Disallow: /forum/faq
Disallow: /forum/./search.php
Disallow: /forum/portal.php?
Disallow: /forum/./index.php
Disallow: /forum/./memberlist
Disallow: /forum/index.php?mark=forums
Disallow: /forum/posting
Disallow: /forum/viewtopic
Disallow: /forum/faq.php
Disallow: /forum/viewforum1-0
Disallow: /forum/viewforum2-0
Disallow: /forum/watched_topics.php
Disallow: /forum/ftopic132-0
Disallow: /forum/sutra
Disallow: /forum/ptopic
Disallow: /forum/ntopic

hatte ich es in den griff bekommen.
ging zu google und schmiss mit dieser akzeptieren robot txt file> meine "unschoenen" seiten raus und bis heute kommen sie auch nicht mehr rein.
weil der trick hier liegt:
Disallow: /forum/sutra
Disallow: /forum/ptopic
Disallow: /forum/ntopic

gewuensche erfolg
gruss mauri

ich bleibe meiner heimat treu und trinke trierer loewenbraeu

Verfasst: 21.12.2004, 10:41
von Garfield
Meine robots.txt

Und trotzdem ist der ganze Schund drin.

Verfasst: 21.12.2004, 11:12
von mauri
und was steht dort?

Disallow: /ptopic*.html$
Disallow: /ntopic*.html$
Disallow: /ftopic*asc*.html$

wer kann das lesen ? googles kanns nicht.

gruss
mauri