Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Wordpress

Informationen & SEO Tipps zum Einsatz und Verwendung von Blog-, Wiki und Content Management Systemen wie Drupal, Typo3, Wordpress, Reddot, Joomla, Moin Moin, phpWiki sowie Shop-Systemen wie z.B. XT-Commerce, Magento, ePages, Intershop, 1&1 Shops.
EvaS
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 03.05.2010, 12:09

Beitrag von EvaS » 02.06.2010, 01:46

Guten Morgen,

ich hoffe sehr auf eure Hilfe, wir sind am verzweifeln.
Vor ca. 9 Wochen haben wir auf 2.9.2 aktualisiert. Ab diesem Tag sind wir bei keiner Suchmaschine mehr über Keywords zu finden.

www.suchpool-ddrbuerger.de

Unser Blog beschäftigt sich mit Personensuche. Wir haben über 2300 Suchanzeigen online.
Bis vor neun Wochen konnten wir jeden Namen der einzelnen Suchanzeigen bei Google eingeben und diese Suchanzeige wurde ausgegeben.

Eva Siebenherz ist mit dem Thema Zwangsadoptionen mit ca.58.800 Beiträgen im Netz vertreten.
Aber auch dieser Name erscheint bei dem Keyword *Zwangsadoption* nicht - auf keiner Seite.

Wir haben ein Seo Plugin gekauft und die Keywords zusätzlich manuell markiert.
Ohne ein Ergebnis.

Vor 4 Wochen haben wir einen Suchmaschinenoptimierer beauftragt.
Mit dem Ergebnis, das jetzt 1-2 Ergebnisse angezeigt werden.

Gibt man Suchpool DDR Bürger direkt ein erhält man 70 600 Einträge.

Aber über den Namen von vermissten Personen auf unserer Website oder über Keywords gibt es 0,01 Ergebnisse.

Wir haben schon viele leute unter anderem auch Experten gefragt.
Alle sind überfordert.

Wir sind eine ehrenamtliche Initiative, die die Suche nach vermissten Personen ehrenamtlich und über Spenden finanziert.

Wir können uns Niemanden weiter leisten.
Und unsere Suchenden, die nach einem vermissten Menschen suchen, stehen im Regen.

Wer hilft uns bitte?
Wenn das tatsächlich mit dieser Aktualisierung von Wordpress zusammen hängt, dann muss es doch Hilfe geben????!!!

Ist es möglich, dass die Metatags durch die Aktualisierung auf die neue Version (Scriptfehler?) nicht mehr ausgelesen werden können?

Wenn ja, was tun???

Vielen Dank.

Herzsieben

Ps: Wir haben auch noch eine internationale Personensuchseite www.personensuchpool.de.
Wordpress Version 2.8.6
Die Suchanzeigen inklusive aller Themen dieses Blogs werden bei Google über Aufruf von namen und Keywords korrekt gefunden.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

heino
PostRank 8
PostRank 8
Beiträge: 833
Registriert: 21.09.2006, 13:42

Beitrag von heino » 02.06.2010, 02:44

EvaS hat geschrieben:Ist es möglich, dass die Metatags durch die Aktualisierung auf die neue Version (Scriptfehler?) nicht mehr ausgelesen werden können
Metatags interessieren Google nicht die Bohne.
Ihr solltet aber aufhören permanent duplicate content zu produzieren:
https://tinyurl.com/33t3y4d
https://tinyurl.com/33ua532

Deine Antworten im früheren thread lassen darauf schließen, dass der Dank für den Hoster auf deiner Site völlig unangebracht ist.

EvaS
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 03.05.2010, 12:09

Beitrag von EvaS » 02.06.2010, 02:53

Jetzt verstehe ich gar nichts mehr. Eben weil das, wie oben passiert ist, und wir wenig Ahnung haben, haben wir das Ganze einem Suchmaschinenoptimierer übergeben.
Und waren davon überzeugt, das alles in ordnung geht.

Bitte redet kein Fachchinesisch mit uns. Sagt uns bitte ganz genau, was wir tun sollen, können oder lassen sollen.
Was hat das mit unserem Hoster zu tun?

Danke.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

TryTryTry
PostRank 6
PostRank 6
Beiträge: 422
Registriert: 17.05.2009, 02:41

Beitrag von TryTryTry » 02.06.2010, 03:15

Ok, also eine Penalty liegt nicht vor bzw. ist nicht Grund. Keys sind ja auch noch zu finden und in den TOP 20.
Das mit dem dublicate content, also wo Eure Inhalte in gleicher Weise mehrfac dargestellt werden solltet Ihr ändern.
Dass der Hoster hier Deine Seite angegriffen hat denke ich nicht. Der Googlebot kommt ja auch noch vorbei.

Die Seite sollte etwas "professioneller" gemacht werden, also bessere Texte, saubere Linkstruktur, Überprüfen des Vorhandenseins aller Seiten, etwas BL Aufbau mit seriösen Quellen, dann dürfte Platz 1 mit den Keys echt kein Problem sein.

Wie sehen denn die Besucherzahlen so aus? Große Veränderungen in letzter Zeit?

heino
PostRank 8
PostRank 8
Beiträge: 833
Registriert: 21.09.2006, 13:42

Beitrag von heino » 02.06.2010, 03:18

Wenn nicht nur robots.txt und sitemap, sondern sogar logfiles verschwinden, würde ich den Hoster einen Arschtritt verpassen!

Meine Frage von damals konnte deshalb nicht richtig beantwortet werden. Möglicherweise hatte er den Googlebot eine Zeit lang ausgesperrt, was aufgrund der fehlenden logs nicht so recht zu klären war.

Fachchinesisch?
Einfach mal die Suchfunktion des Forums oder von einer Suchmaschine bedienen.
Weshalb euer Content gleichzeitig auf den anderen Seiten auftaucht, wirst du schon selbst wissen und damit abstellen können.

TryTryTry
PostRank 6
PostRank 6
Beiträge: 422
Registriert: 17.05.2009, 02:41

Beitrag von TryTryTry » 02.06.2010, 03:28

"Wenn nicht nur robots.txt und sitemap, sondern sogar logfiles verschwinden, würde ich den Hoster einen Arschtritt verpassen! "

---> Jo, das würde ich wohl auch, wobei ja noch zu klären wäre ob das auch echt der Hoster war, bzw. ob er die Schuld trägt.
Wenn -ich sag mal ein Laie- sich an sowas setzt und dann aus Versehen z.B. die Robtots.txt löscht oder die Sitemap dann wird der sich vielleicht auch gar nicht erinnern das je gemacht zu haben, weil es einfach nicht wahrgenommen wurde.

Bleibt auch die Frage ob verschwunden oder verschoben oder sonstwas...sowas kann man nie wissen. Muss man sich halt alles mal genauer angucken.

EvaS
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 03.05.2010, 12:09

Beitrag von EvaS » 02.06.2010, 07:14

Danke für eure Antworten.
Also, als ich das vor Wochen gemerkt habe, dass etwas nicht stimmt, bin ich der Sache(soweit ich konnte) auf den Grund gegangen.
Wir haben im Oktober letzten Jahres den Hoster gewechselt und einiges verändert.
Unter anderem hatte mein Sohn eine neue Robots.txt hoch geladen und eine neue Sitemap. Beides war Mitte Februar, als das passiert ist verschwunden.
Haben wir ersetzt.
Heino:
*Ihr solltet aber aufhören permanent duplicate content zu produzieren:
https://tinyurl.com/33t3y4d
https://tinyurl.com/33ua532 *

Vielleicht ist die Frage ja oberdämlich, keine Ahnung - ich stelle sie trotzdem:
Wir setzen jede Suchanzeige nur einmal ein und das Seo Plugin ist auch so eingestellt, das kein doppelter Content entsteht.

Wo also kann der herkommen?
Denn, bis vor ca. 4 Wochen, hatten wir dieses Problem nicht.

Zum Hoster:
Was sollte er für ein Interesse daran haben, uns die Seite kaputt zu machen?

Herzsieben

SchnaeppchenSUMA
PostRank 9
PostRank 9
Beiträge: 2394
Registriert: 11.04.2006, 11:40

Beitrag von SchnaeppchenSUMA » 02.06.2010, 07:15

kann es sein dass eurer Nextgen nicht mehr richtig funktioniert?

"... XML-Verarbeitungsfehler: nicht wohlgeformt
Adresse: https://www.suchpool-ddrbuerger.de/wp-c ... .php?gid=0
Zeile Nr. 461, Spalte 33: <title>geb. Schlepps, Mirko & Wiener Annegret/gesuchte Person & suchende Person</title> ... "

Kommt beispielsweise wenn man nach "Schiebold, Katrin" sucht und eure Seite (top5) aufruft. Sieht so aus als wären die Contentseiten durch andere Seiten mit Bildern ersetzt worden.

EvaS
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 03.05.2010, 12:09

Beitrag von EvaS » 02.06.2010, 08:00

Danke für eure Antworten.
Also, als ich das vor Wochen gemerkt habe, dass etwas nicht stimmt, bin ich der Sache(soweit ich konnte) auf den Grund gegangen.
Wir haben im Oktober letzten Jahres den Hoster gewechselt und einiges verändert.
Unter anderem hatte mein Sohn eine neue Robots.txt hoch geladen und eine neue Sitemap. Beides war Mitte Februar, als das passiert ist verschwunden.
Haben wir ersetzt.
Heino:
*Ihr solltet aber aufhören permanent duplicate content zu produzieren:
https://tinyurl.com/33t3y4d
https://tinyurl.com/33ua532 *

Vielleicht ist die Frage ja oberdämlich, keine Ahnung - ich stelle sie trotzdem:
Wir setzen jede Suchanzeige nur einmal ein und das Seo Plugin ist auch so eingestellt, das kein doppelter Content entsteht.

Wo also kann der herkommen?
Denn, bis vor ca. 4 Wochen, hatten wir dieses Problem nicht.

Zum Hoster:
Was sollte er für ein Interesse daran haben, uns die Seite kaputt zu machen?

Herzsieben

CitizenX
PostRank 5
PostRank 5
Beiträge: 289
Registriert: 01.07.2009, 18:47

Beitrag von CitizenX » 02.06.2010, 08:31

Jetzt muss ich mal blöd fragen: Wenn er seine Threads doch mit dem "more"-Tag nach den ersten 50-75 Wörtern kennzeichnet, wieso hat er dann ein DC-Problem? Wir liefern aus unseren Blogs auch Feeds u.a. ans Bloggeramt aus, geschadet hat uns das bisher nicht.

Er liefert ja nicht den gesamten Artikel aus. Innerhalb der Seite scheint es allerdings wirklich ein bisschen zuviel zu sein, da haben wir max. 3 Anleser für den selben Artikel unter verschiedenen URLs. Negative Wirkung hatte das bisher zumindest nicht, haben nichts bemerkt.

SchnaeppchenSUMA
PostRank 9
PostRank 9
Beiträge: 2394
Registriert: 11.04.2006, 11:40

Beitrag von SchnaeppchenSUMA » 02.06.2010, 08:35

Ein Grund könnte sein das bei alten Anzeigen ein Copy+ Paste Text eingefügt wird der dann in sämtlichen Excerpten zu sehen ist.

jackwiesel
PostRank 10
PostRank 10
Beiträge: 5820
Registriert: 09.09.2007, 09:44
Wohnort: Bochum

Beitrag von jackwiesel » 02.06.2010, 08:48

Mir gefallen die Seitentitel in dieser Form überhaupt nicht. Wenn ein CMS schon einen Haupttitel generiert sollte dieser so klein wie möglich gehalten werden.

Am Rande würde mich - ohne den Kollegen angreifen zu wollen(!) - interessieren, welcher SEO sich auf so einer umfangreichen Seite heute noch einen Sidewide-Keyword-Link setzt.

jackwiesel
PostRank 10
PostRank 10
Beiträge: 5820
Registriert: 09.09.2007, 09:44
Wohnort: Bochum

Beitrag von jackwiesel » 02.06.2010, 09:03

Alter... WAS habt Ihr für Ladezeiten für das Teil...????? :o

Wenn das bei Euch Standard ist (meine Leitung ist ok, grade gecheckt!) würde ich mir ernsthafte Gedanken machen.

Synonym
PostRank 10
PostRank 10
Beiträge: 3708
Registriert: 09.08.2008, 02:55

Beitrag von Synonym » 02.06.2010, 09:16

Ich stelle mir da auch gerade die Frage, warum eigentlich jede Seite die gleiche Description hat. Da scheint wohl das SEO-Plugin auch nicht das zu tun was es soll.

"Unter anderem hatte mein Sohn eine neue Robots.txt hoch geladen "
Verstehe ich auch nicht ganz. Ich denke die wird über das WP-PlugIn erstellt?

EvaS
PostRank 1
PostRank 1
Beiträge: 19
Registriert: 03.05.2010, 12:09

Beitrag von EvaS » 02.06.2010, 10:22

Danke an euch für die Antworten.
Wir machen uns jetzt an die Arbeit.
Hab mal die Ladezeit überprüft:
Serverplattform: Apache
Seitengroesse (Gesamt): 285.232 Bytes
Anzahl der berücksichtigten Elemente: 35
Theoretische Ladezeit fuer Modem / ISDN (56-64 kbs): 38,03 s
Theoretische Ladezeit fuer DSL1000 (1024 kbs): 2,23 s
Theoretische Ladezeit fuer DSL2000 (2048 kbs): 1,11 s
Theoretische Ladezeit fuer DSL3000 (3064 kbs): 0,74 s
Theoretische Ladezeit fuer DSL6000 (6128 kbs): 0,37 s
Gesamtwertung (im Schulnotensystem): 4,3 (ausreichend)

Was können wir tun, um das zu ändern?

LG herzsieben

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag