Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

sitemap für phpbb

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
Christophe
PostRank 5
PostRank 5
Beiträge: 246
Registriert: 13.12.2004, 13:07

Beitrag von Christophe » 02.02.2005, 02:30

Ja, so war es bei mir auch. Bis jetzt sind immer noch 5.000 Seiten im Index, von denen der größte Teil Schrott ist. (&view=next, &mode=reply, etc.) Goole hat wohl begriffen, dass das eine ganz schlechte Idee ist und hat es erst mal wieder gelassen.

Bei dir scheint es ja ähnlich zu sein. 27.000 Seiten im Index bei knapp über 800 Themen ist ja auch nicht mehr normal. Da ist es kein Wunder, dass Google auf 8.058.044.651 Seiten kommt.

Seit ich selbst massiv aufgeräumt habe mit 301 Redirects bei den ganzen doppelten Seiten (ca. 20 pro Thema ohne sids), 410 Gone bei nicht mehr vorhandenen Seiten und Cloaking für die Keyworddichte hat sich Google erst wieder 300 Seiten (von ca. 4.500 Themen) Stück für Stück in den Index geholt, trotz absolut suchmaschinenlesbarer Seiten, statischen Sitemaps u.s.w.

Es gibt auch noch einen ganz interessanten Artikel über die Wahl von URIs vom W3C.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 02.02.2005, 04:15

Das ABAKUS forum hat ca.40.000 foren seiten RICHTIG indiziert.

Wie man das prüft ist mit folgende url
https://www.google.de/search?hl=de&c2co ... uche&meta=

Wichtig ist man sollte nie einfach "site:www.domain.de" eingeben bei google. aber auf "erweiterte suche" klicken und wählen bei "Ausgabe neuer Webseiten, aktualisiert während" drop down menu "im letzte jahre".

Das zeigt die wahrheit weil, obwohl es steht +200.000 indizierte seite mit eine einfache site: prüfen, die meisten sind seiten die nicht tatsachlich im google cache sind. Alle mit nur eine url ohne beschreibung oder cache link im meine augen gelten nicht.

Das ist wichtig, weil es ist nur die Seiten die im cache sind, das gefunden werden kann. mit eine Google suchabfrage.

Glaub nie an eine site:www.meindomain.de ergebnis, Man muss schon tiefer gehen.

Allerdings ist ca. 40.000 seiten für eine phpbb forum schon eine ganze menge. Ich hab von anfang an als top priorität an eine suma freundlich phpbb gekummert.
es gibt ca. 6 offizielle mods und ca. 8 unoffizielle mods in diese forum. Die übrigens NICHT mit mod_rewrite gemacht ist (php url rewriting durch forcetype in htaccess).

Wichtig für alle phpbbler ist zu wissen ob die eine autorität sind oder nicht. Falls nicht dann vermeiden duplizierte inhalt. Das heißt die ganze ptopic und ntopic oder dynamisch 'out of the box' ..&viewprevious URLs sollte vermeidet. Diese vorherige und nächste post hab ich nicht nur mit den link text umgeschrieben (offizielle mod) aber auch umgeschrieben das die ziel url ist eine t-xxx (unoffizielle mod). Das hab ich aber nur in die letzte monat gemacht.
weil abakus schon eine autorität war, war die duplizieren mit p-xxx usw. keine problem, aber für neue phpbbler ist es imo wichtig duplizierte inhalt zu vermeiden.

Das sitemap ist auf jedenfall wichtig besonders für neue phpbbler. Das 'fetch all' mod die man auf meine homepaghe findet ist auch suoer wichtig. Fast alle mods die ich genommen habe haben eine crawling/seo zweck. z.B die ähnliche beiträge mod die man hier unten sieht hilft mit tiefcrawlen und thematische verlinkiungen und link text für bestimmte threads. Sogar diese "Schnelle Antwort" unten übernimmt das forum titel automatisch für keyword dichte zwecken (deshalb die "test" posts letzlich").

Für neue forum gibt es aber nicht wichtiger als googlebot und co. soviel chancen wie möglich eine bestimmte t-xxx.html zu finden. Fast alle offizielle mods die ich habe sind genau für diese zweck.

list.php hab ich auch geändert so das neben der link gibt es auch das gleiche im normale text. Es ist nicht nur eine liste von links, mit absicht.

Es ist keine pipikram eine phpbb forum wirklich top optimal für SuMas zu optimieren.

Es gibt optimiere Forum und es gibt OPTIMIERTE forum ;-)
Eine optimiert forum nur wirksam aber mit eine Admin m,it eine marketing kopf und gute moderatoren. Ich kann mich errinern von ein und halb jahre her, wann ich froh war fürzwei neue mitglieder pro tag und 20 posts pro tag.

Es gibt aber eine nachteile von hoch optimierte forum.

Tippen "Porno Forum" oder "silvia Saint" in Google rein.
Dei beide keywords sind eigentlich top traffik bringer laut meine webstatistiken. Aber, gezielte Traffik für meine geschäft sind die absolut nichts. Ich bekomme eine ganze menge mull traffik durch diese forum. Ander komische suchbegriffen sind z.B. "Victoria beckham nackt", "lolita forum" :roll: , "string emil", "nu pagadi forum" und eine ganze menge (ca. 1500) andere unrelevante besucher pro tag.

Aber, ich bekomme auch eine ganze menge relevante Traffik auch ;-)
Meine vorschlag für alle die mit eine Forum anfangen ist erstmal nie denken das Ihre seite ist komplett optimiert für SuMas. Nach 2 jahre finde ich immer noch kleinigkeiten die verbessert werden könnte im richtung seo. Alle, alle wichtigste für SEO zwecken aber ist das Domainpopularität. Das schafts du nur mit gute mods und mitglieder. Und DAS ist das schwerste aufgabe alle forumbetreiber.

Alan
Zuletzt geändert von Webby am 02.02.2005, 11:21, insgesamt 1-mal geändert.
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

ypsie
PostRank 5
PostRank 5
Beiträge: 328
Registriert: 03.11.2003, 15:40
Wohnort: Wien

Beitrag von ypsie » 02.02.2005, 09:30

Danke Webby für diesen interessanten Beitrag. Ich würde es gerne noch etwas konkreter wissen: Wie kann ich den doppelten Content bei einem phpBB vermeiden - welche Mods/Veränderungen muss ich einbauen?

Gerne auch per Pn.

Mfg, Julian

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Webby
Administrator
Administrator
Beiträge: 5420
Registriert: 17.10.2001, 01:00

Beitrag von Webby » 02.02.2005, 11:39

Ich hab für eine lange zeit nichts gemacht weil damals war dupliziete inhalt keine Thema. Weil ich neulich keine p-xxxx.html links habe, ist es mir keine problem. Aber, ich wurde es mit robots.txt machen. Es hängt von die bestimmte optimierung mod das man nutzt. z.B.

Code: Alles auswählen

User-agent: *
Disallow: /login.php
Disallow: /statistics.php
Disallow: /admin/
Disallow: /db/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /templates/
Disallow: /config.php
Disallow: /profile.php
Disallow: /groupcp.php
Disallow: /memberlist.php
Disallow: /modcp.php
Disallow: /posting.php
Disallow: /privmsg.php
Disallow: /viewonline.php
Disallow: /faq.php
Disallow: /ptopic*.html$
Disallow: /ntopic*.html$
Disallow: /ftopic*asc*.html$

User-agent:Googlebot
Disallow: /*?


Oben eine gute robots.txt für das short url mod...
https://www.phpbb.de/viewtopic.php?t=44090

Alan
ABAKUS Internet Marketing
Professionelle Suchmaschinenoptimierung und Suchmaschinenmarketing

larsneo
PostRank 4
PostRank 4
Beiträge: 178
Registriert: 03.01.2005, 17:21
Wohnort: Schwäbisch Gmünd

Beitrag von larsneo » 02.02.2005, 16:09

Webby hat geschrieben:Oben eine gute robots.txt für das short url mod...
https://www.phpbb.de/viewtopic.php?t=44090
in verbindung mit https://www.phpbb.de/viewtopic.php?t=74349 ergibt das nach ein paar wochen dann beispielsweise rund 50.000 voll indizierte google fundstellen (mit webbys google-syntax) ;-)
als POC läuft übrigens im nuforum parallel dazu eine sitemap mit 'dynamischen urls' mit bislang 2870 fundstellen.
generell bedeutet seo allerdings - und da stimme ich mit alan voll und ganz überein - eine menge mehr dazu als 'nur' den verzicht auf session ids und statische urls; die feinheiten wie korrektes markup, semantische auszeichnungen und auch eine optimierung der internen verweise machen imho letztendlich den unterschied aus.

btw: man beachte auch den pagerank der seite :roll:
grüsse aus dem wilden süden
andreas <larsneo>
..::[zikula ]::.. ..::[cms-sicherheit.de]::..

Garfield
PostRank 9
PostRank 9
Beiträge: 2182
Registriert: 12.10.2004, 10:22

Beitrag von Garfield » 02.02.2005, 17:38

Wenn ich nach meinem Forum auf die Art suche, krieg ich auch nur saubere Seiten angezeigt :

*klick*

Suchst du mit site:www.nubert-forum.de, kriegst du auch genügend leere Sites im Index angezeigt.

Also, mich hat diese Art von statischen URLs noch nicht überzeugt.

larsneo
PostRank 4
PostRank 4
Beiträge: 178
Registriert: 03.01.2005, 17:21
Wohnort: Schwäbisch Gmünd

Beitrag von larsneo » 02.02.2005, 17:51

Suchst du mit site:www.nubert-forum.de, kriegst du auch genügend leere Sites im Index angezeigt.
aber wen stört das? ich glaube kaum, dass ein 'echter' interessent mit der 'site:' option bei google sucht und mir (bzw. in diesem fall der nubert speaker factory) ist eigentlich nur wichtig, dass die inhalte gefunden werden :roll:

(und beispielsweise die karte bzw. das album würde ich schon aus performance- bzw. trafficgründen generell nicht von suchmaschinen spidern lassen - genauso wie die session-id als url-bestandteil vom sicherheitsaspekt her nicht der weisheit letzter schluss ist)
Also, mich hat diese Art von statischen URLs noch nicht überzeugt.
verlangt ja auch niemand ;-)
gerade beim dem thema seo kann sicherlich jeder auf seine art glücklich werden - und ein 'optimal-prinzip' gibt es dabei gewiss nicht.
grüsse aus dem wilden süden
andreas <larsneo>
..::[zikula ]::.. ..::[cms-sicherheit.de]::..

Matzelein
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 02.02.2005, 19:16

Beitrag von Matzelein » 02.02.2005, 19:19

Hallo zusammen!

Eine Frage dazu:
Mein Forum wird von Google irgendwie überhaupt nicht erfasst. (Klick Das wichtigste wären mir die "viewtopics".

Wie ändere ich das denn am besten?

Hilft da der obige Mod?

Garfield
PostRank 9
PostRank 9
Beiträge: 2182
Registriert: 12.10.2004, 10:22

Beitrag von Garfield » 02.02.2005, 19:46

Hallo Matzelein,

am wichtigsten wäre wohl zunächst, daß du die SessionID für den Google-Bot ausblendest, falls nicht schon geschehen. Zumindest als User kriege ich SessionIDs.

Auf phpbb.de gibt es einen ellenlangen Thread über mod_rewrite (>80 Seiten), im ersten Beitrag ist alles erklärt, was du tun mußt.

Matzelein
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 02.02.2005, 19:16

Beitrag von Matzelein » 03.02.2005, 08:27

Das schaue ich mir mal an, besten Dank!

Gerald79
PostRank 4
PostRank 4
Beiträge: 159
Registriert: 15.10.2004, 14:27

Beitrag von Gerald79 » 06.02.2005, 23:27

Hm,

eine lösung für das Sitemap Problem gibt es wohl noch nicht ??

workershop
PostRank 8
PostRank 8
Beiträge: 697
Registriert: 19.11.2004, 19:08
Wohnort: Leipzig

Beitrag von workershop » 31.07.2005, 17:05

Hallo

könnt Ihr mir bitte sagen, wie Ihr das gelöst habt?



Verfasst am: Fri Jan 21, 2005 2:21 am Titel:

--------------------------------------------------------------------------------

Du mußt, wenn du mod_rewrite in die .htaccess reinschreibst, aber auch noch in der sitemap.php den Code

Code:
$new_url = '<a href="' . $_SCRIPT_NAME . '?offset=' . $offset . '">Next</a>';
echo $new_url;

workershop
PostRank 8
PostRank 8
Beiträge: 697
Registriert: 19.11.2004, 19:08
Wohnort: Leipzig

Beitrag von workershop » 31.07.2005, 18:43

Hat keiner eine Idee? Der Link zur Sitemap schaut ja schon so aus:

https://www.erotikversand69.de/erotikforum/sitemap.html

aber wenn man auf die nächsten Seiten geht schaut es dann so aus: https://www.erotikversand69.de/erotikfo ... ?offset=80

Ich bekomme es einfach nicht hin, das es so in der Art ist: https://www.erotikversand69.de/erotikfo ... ap-80.html wird

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 31.07.2005, 18:54

Ich nutze folgendes Skript (angepasst für Larsneo URL Rewriting)

Es ist noch ein kleiner Bug in Verbindung mit der Session-ID. Da aber Gästee keine Session-ID bekommen, ist das unkritisch. War bisher zu faul, das auszumerzen.

Mit dem unten stehenden Skript kommt genau das raus, was Du haben möchtest.

Code: Alles auswählen

<?php
define&#40;'IN_PHPBB', true&#41;;
$phpbb_root_path = './';
include&#40;$phpbb_root_path . 'extension.inc'&#41;;
include&#40;$phpbb_root_path . 'common.'.$phpEx&#41;;

//
// Start session management
//
$userdata = session_pagestart&#40;$user_ip, PAGE_INDEX&#41;;
init_userprefs&#40;$userdata&#41;;
//
// End session management
//

/***************************************************************************
* Save this file as&#58;   sitemap.php &#40;or anything you like&#41;
* Version&#58;      Friday, Oct 4, 2002
* Email&#58;      angus@phphacks.com
* Purpose of hack&#58;   Basically generates a list of topics and
*      displays them with link to the topic. Goal
*      is to provide search engines like Google
*      with a static page of links to dynamic pages
*      You should link to this page from your sites
*      home page somewhere.
* Demo&#58;      http&#58;//www.aussiecelebs.com/forums/site_map.php
* Tested on&#58;   phpBB 2.01, 2.02
*
***************************************************************************/

/***************************************************************************
*
* This program is free software; you can redistribute it and/or modify
* it under the terms of the GNU General Public License as published by
* the Free Software Foundation; either version 2 of the License, or
* &#40;at your option&#41; any later version.
*
***************************************************************************/
?>
<?php

echo "<!DOCTYPE HTML PUBLIC \"-//W3C//DTD HTML 4.0 Transitional//EN\">
<!-- Start Header -->
<html>
<head>
<meta http-equiv=\"Content-Type\" content=\"text/html; charset=ISO-8859-1\">
<title>Sitemap for domain.tld</title>
<meta name=\"robots\" content=\"index,follow\">
<META NAME=\"robots\" CONTENT=\"NOARCHIVE\">
<meta name=\"description\" content=\"This is the sitemap for the domain.tld\">
<base target=\"_top\">
<link rel=stylesheet type=\"text/css\" href=\"http&#58;//www.domain.tld/forum/sitemap.css\">
</head>
<!-- End Header -->
<!-- Start Body -->
<body>
<h1>Site Map for <a href=\"http&#58;//www.domain.tld/forum/index.html\">yourforum</a></h1>

";


$sql = "SELECT t.topic_id FROM " . TOPICS_TABLE . " AS t, " . POSTS_TABLE . " AS p, " . FORUMS_TABLE . " AS f
    WHERE
        t.forum_id = f.forum_id AND f.auth_view = " . AUTH_ALL . " AND p.topic_id = t.topic_id AND p.post_id = t.topic_last_post_id ORDER BY p.post_time DESC";

$topicscount_query = $db->sql_query&#40;$sql&#41;;
$row_count = $db->sql_numrows&#40;$topicscount_query&#41;;
$max_count = $row_count/50;

if&#40;$HTTP_GET_VARS&#91;next&#93;>0 && $HTTP_GET_VARS&#91;next&#93;<=$max_count&#41; &#123;
    $next = $HTTP_GET_VARS&#91;next&#93;;
&#125;else &#123;
    $next=0;
&#125;


// SQL statement to fetch active topics of public forums
$sql = "SELECT t.topic_id, t.topic_title, t.topic_last_post_id
    FROM " . TOPICS_TABLE . " AS t, " . POSTS_TABLE . " AS p, " . FORUMS_TABLE . " AS f
    WHERE
        t.forum_id = f.forum_id
            AND f.auth_view = " . AUTH_ALL . "
            AND p.topic_id = t.topic_id
            AND p.post_id = t.topic_last_post_id
    ORDER BY p.post_time DESC  LIMIT ".&#40;$next*50&#41;.",50";
$topics_query = $db->sql_query&#40;$sql&#41;;

if &#40; !$topics_query &#41;
&#123;
    message_die&#40;GENERAL_ERROR, "Could not query list of active topics", "", __LINE__, __FILE__, $sql&#41;;
&#125;
else if &#40; !$db->sql_numrows&#40;$topics_query&#41; &#41;
&#123;
    message_die&#40;GENERAL_MESSAGE, $lang&#91;'No_match'&#93;&#41;;
&#125;
else
&#123;
    while &#40;$topic = $db->sql_fetchrow&#40;$topics_query&#41;&#41;
    &#123;
        echo "<a href=\""."http&#58;//www.domain.tld/forum/ftopic".$topic&#91;'topic_id'&#93;.".html"."\">".$topic&#91;"topic_title"&#93;."</a><br>\n";
    &#125;
&#125;



echo "
<BR><BR>
&#91;
";

for&#40;$ii=0; $ii<$max_count; $ii++&#41; &#123;
    if&#40;$ii+1<$max_count&#41; &#123;
        if&#40;$ii==$next&#41; &#123;
            echo&#40;"<A>&nbsp;".&#40;$ii+1&#41;."&nbsp;|</A>"&#41;;         
        &#125;else&#123;
            echo&#40;"<A HREF=\""."sitemap".&#40;$ii&#41;.".html\">&nbsp;".&#40;$ii+1&#41;."&nbsp;|</A>"&#41;;
        &#125;
    &#125;else&#123;
        if&#40;$ii==$next&#41; &#123;
            echo&#40;"<A>&nbsp;".&#40;$ii+1&#41;."&nbsp;</A>"&#41;;         
        &#125;else&#123;
            echo&#40;"<A HREF='" . append_sid&#40;"sitemap".&#40;$ii&#41;&#41;.".html'>&nbsp;".&#40;$ii+1&#41;."&nbsp;</A>"&#41;;
        &#125;
    &#125;    
&#125;


echo "
&#93;
<!-- Start footer here. -->
<p>
<span style=\"font-size&#58;small\">back to <a href=\"http&#58;//www.domain.tld\">domain.tld</a></span>
</body>
</html>
<!-- End footer -->
";

?>

Code: Alles auswählen

# Forum Sitemap
RewriteRule ^forum/sitemap&#40;&#91;0-9&#93;&#91;0-9&#93;*&#41;.html forum/sitemap.php?next=$1 &#91;L&#93;

workershop
PostRank 8
PostRank 8
Beiträge: 697
Registriert: 19.11.2004, 19:08
Wohnort: Leipzig

Beitrag von workershop » 31.07.2005, 21:13

Also ich versuche es schon die ganze Zeit, aber da ist ein Fehler in dem Teil. Wenn ich auf Seite 2 etc. klicke schreibt er zwar die URL aber der Inhalt ist der von der ersten Seite.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag