Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Sinnlose (?) Fehler in den Webmastertools

Alles zum Thema: Robots, Spider, Logfile-Auswertung und Reports
Neues Thema Antworten
karlkox
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 08.10.2012, 00:44

Beitrag von karlkox » 18.10.2012, 17:58

Ich habe in den wmt von google ein Problem, dass ich mir nicht erklären kann.

Und zwar werden mir dort (alle paar Tage ein paar mehr) Fehler angezeigt, die für mich einfach keinen Sinn machen. Es handelt sich ausschlieslich um URLs die so nicht gibt und auch nie gab. Wenn ich dannuntersuche von wo aus die verlinkt sind, dann stelle ich fest, dass die sich alle gegenseitig verlinken.

Hat ausser mir auch noch jemand das Problem und weis evtl. sogar woran es liegt und wie man es abstellen kann?

Lieben Gruss
karlkox

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

rezwiebel
PostRank 4
PostRank 4
Beiträge: 106
Registriert: 17.03.2010, 10:13
Wohnort: Büchenbach

Beitrag von rezwiebel » 18.10.2012, 20:18

Kenn ich ähnlich. Fehler, die man sich nicht erklären kann. Normalerweise sollte das kein Problem sein. Solange die Seiten nicht relevant sind, sagt sogar Google selbst, kann man getrost diese als behoben markieren. Selbst Seiten mit tausenden von Fehlern sind kein Thema.

Woher das kommt, ist schwer zu sagen. Manchmal sind es einfach falsche Verlinkungen von außen, manchmal fehlerhafte Konfigurationen in Content Management Systemen.
Manchmal geht's auch ohne SEO...aber nur manchmal... Netzgänger

Mein SEO und Wordpress Blog
[url=httpss://plus.google.com/111527634636485234617]Mein Google+ Profil[/url]

karlkox
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 08.10.2012, 00:44

Beitrag von karlkox » 18.10.2012, 21:03

Danke für deine Antwort.

Es handelt sich um ein CMS (joomla), und nachdem ich mir nicht erklären konnte woher die Fehler kommen, habe ich deinen Tipp heute Nachmittag schon vorweggenommen und einfach mal alle als "behoben" markiert.

Die zwei Gründe die du genannt hast könnten web-ted.de (die sind irgendwie gestorben und fabrizieren tausende fehlerhafte backlinks) oder eben ein falscher Hacken in joomla sein.

LG
karlkox

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

blondes-gift
PostRank 4
PostRank 4
Beiträge: 182
Registriert: 15.02.2012, 20:26

Beitrag von blondes-gift » 18.10.2012, 21:29

Ich habe das gleiche Problem mit Joomla. Die Beiträge lassen sich unabhängig von der Verlinkung über die Beitrags-ID in der URL aufrufen. Und google scheint da alle möglichen Ziffern durchzupingeln und findet dann sowas wie doppelten Content.

Es müsste eine Möglichkeit geben, eine whitelist zu erstellen. Alles was nicht in der whitelist ist muss dann halt ein 404 oder 301 bekommen. Eine Lösung habe ich auch noch nicht gefunden.

seonewbie
PostRank 9
PostRank 9
Beiträge: 1939
Registriert: 21.10.2006, 20:50

Beitrag von seonewbie » 18.10.2012, 22:54

Einfach in der robots.txt ausschliesen.

Nur manchmal ignoriert Google auch das. Ich habe in mehreren
OSC SHops von Kunden &language, &blabla ausgeschlossen Google
zeigt aber noch immer doppelten Content an.

Ich glaube die haben da noch ein Problem. Auf das Ranking scheint
es sich aber nicht negativ auszuwerten. Seltsam ist es trotz dem.
Suche Linktausch zum Thema Mode. Bitte PM
Backlink-Generator | Artikelverzeichnis | PageRank | SEnuke X
Don't smoke, don't fight, don't light no cigarettes,
Or else you'll wind up in the can!
No jokes, no rights, sit tight, don't fool around,
You are a guest of Uncle Sam!
AC/DC "I'll be damned"

karlkox
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 08.10.2012, 00:44

Beitrag von karlkox » 19.10.2012, 09:49

Nachdem ich die ersten Fehler über nacht schon wieder angesammelt habe werde ich es auch mal mit der robots.txt versuchen. Ich habe zwar auch nicht das Gefühl das es für das rankung schlecht wäre aber ganz wohl ist mir bei der Sache trotzdem nicht. ^^

Den Eindruck mit dem durchprobieren irgendwelcher Ziffern macht es bei mir auch. Wobei google da (zumindest bei mir) zwei Lieblingsziffern hat.

WilliWusel
PostRank 9
PostRank 9
Beiträge: 1257
Registriert: 21.08.2006, 14:55

Beitrag von WilliWusel » 19.10.2012, 13:49

seonewbie hat geschrieben:Ich habe in mehreren OSC SHops von Kunden &language, &blabla ausgeschlossen Google zeigt aber noch immer doppelten Content an.
Wenn Google die Seiten erst einmal im Cache hat, bleiben sie da für "ewig" drin. Dann hilft nur ein Löschen der URLs über die Webmaster Tools.

ElDiablo
PostRank 9
PostRank 9
Beiträge: 1971
Registriert: 27.11.2011, 11:20

Beitrag von ElDiablo » 19.10.2012, 15:04

Canonical auf die Artikel selbst. fertig.
Oft sind es Such-Parameter, die dazu kommen.

karlkox
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 08.10.2012, 00:44

Beitrag von karlkox » 19.10.2012, 18:14

Ich habe heute noch etwas nachgelesen und dir robots.txt scheint keine gute Idee zu sein. Zwar werden die Seiten dann nicht gecrawlt, sehr wohl aber indexiert.
Die werden dann halt einfach "nackt" in den Index gepackt.

Ich habe stattdessen heute mal angefangen die Seiten über die Parameterfunktion in den webmastertools auszuschliesen. Mal sehen wie sich das Bild mit den nächsten Besuchen des googlebots ändert.

karlkox
PostRank 1
PostRank 1
Beiträge: 27
Registriert: 08.10.2012, 00:44

Beitrag von karlkox » 22.10.2012, 22:06

Kurze Info für alle mit ähnlichen Problemen. Bei mir scheint das mit den Parametern den erwünschten Effekt zu haben.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag