Herzlich willkommen im Archiv vom ABAKUS Online Marketing Forum
Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.
Mhhh... Wäre es nicht besser zu Wissen, was da abläuft. Vielleicht ist es ja ein Wink von Google und in 7 oder 14 Tagen wird es noch schlimmer!?14 Tage abwarten.
site:www.domain.tld ergibt 40.700. Was soll ich daran ändern? Bei jeder größeren Sites werden solche Zahlen ausgegeben. Bei dieser Seite abakus-internet-marketing.de sind es 120.000. Ich muß gestehen, dass ich nicht verstehe, was dies bedeutet. "Das ändern" ?kontrolliere wieviele der seiten im supplemental sind und ändere dies
Es sind 4 ausgehende Links von der Startseite. Seit 3 Jahren. Alle zu Partnern. Die Partner verlinken ebenfalls auf uns. Auf verschiedenen Contentseiten gibt es weiterführende Links. Jedoch sind es nie mehr als 2 und gehen auf die News oder Content ein. Führen zu weiteren Informationen.Darf ich mal fragen, wieviele externe links ihr auf der seite habt? Z.B. linktausch etc?
Wir hoffen es. Die komplette Redaktion und ein weitere Admin kann sich das nicht erklären. Die Livelogfiles sehen verdammt leer aus. Wie viele, kann sich das Projekt nur mit Werbeeinnahmen finanzieren. Leider! Aber vielen Dank für deine Worte.ich bin zwar nicht in der news branche aber solche einbrüche sind eigentlich unbedenklich das kommt wieder in die gänge kann paar tage dauern.
kontrolliere mal so
site:domain.tld/ *** -asdoijf
Das haben andere Seiten nur leider auch.dann haben sie schon die probleme gefunden wenn 40,000 seiten sind im supp index
Werden die Ergebnisse als Linklisten ausgegeben?sevenup hat geschrieben:Die Redaktion arbeitet seit Jahren mit der internen Suchmaschine. z.B. Falls ein Bericht über "BUSH" veröffentlicht wird, tragen Redakteure den Suchbegriff als Link ein. Der Leser kann dann auf diesen Link klicken. Dieser führt zur internen Suchmaschine und gibt alle Artikel mit dem Begriff "Bush" oder "Das Suchwort" aus. Google hat nun einiges an Suchbegriffen indexiert.
Ja, wenn durch die Suchabfragen stereotype Seiten ohne unique Content entstehen.Die Variablen geben die Seite an usw. Wäre es besser den Bot von dieser Suche auszuschließen. Disallow:
Vorausgesetzt, das sind Linkseiten - was ist denn da (aus Sicht der Suchmaschinen) sonst noch an sinnvollem Content drauf? Dieselben Links zu den Artikeln, kombinatorisch neu zusammengewürfelt in X Variationen (je nach interner Suchanfrage)?Eine Nichtindexierung der Suchbegriffe wäre Schade. Dies Suche wird sehr oft genutzt und gibt zu vielen Suchbegriffen einige Artikel und Infos aus. Ein Suchbegriff wird nur veröffentlicht, falls mindesten 4 andere Artikel zum Thema auffindbar sind. So können Themen über Jahre recherchiert werden. Dies war damals von den Betreibern so gewollt.
Ja, BUSH ergibt 4 Seiten mit a 20 Links zu unterschiedlichen Artikeln. In einigen Ergebnissen ist ein wenig Text enthalten, in anderen nicht. Text hat keinen Zusammenhang und gibt nur Schnippsel aus, die BUSH als Inhalt haben.Werden die Ergebnisse als Linklisten ausgegeben?
z.B. Suchbegriff BUSH => Ergebnisseite mit 50 Links zu Artikeln ohne sonstigem suchmaschinenrelevanten Content?
Nach 2 Stunden-Analyse ist das Verhältnis etwa 5 zu 3. Auf drei vernünftige Contentseiten komme Suchergebnisseiten oder PDF-Kram usw.Wie ist (ungefähr) das Verhältnis von indexierten Suchabfragen zu Content-Seiten? 1/100, 1/10 oder womöglich 10/1?
Ich denke nun auch, dass ist die beste Lösung. Ich werde abwarten, was mein Kollege nachher bei Übernahme sagt und werden den Suchdienst dann wohl ausschließen.Hatte sowas auch mal und bin damit bis ans Ende der Suchergebnisse gerutscht.
Habe dann NOINDEX in die Suchergebnisseite reingesetzt => nach einigen Wochen alles wieder OK.
Meine Nase sagt mir, das dies auch bei uns so laufen könnte. Ich habe nochmals alte Analysen verglichen. Im Vergelich zu 2005 und 2006 generierten wir, ca. 30 Suchwörter am Tag. Jetzt 2007 sind es ca 55 - 70. 2005 und 2006 waren die Suchergebnisse sauberer. Wir hatten in den letzten Monaten ein wenig die Augen verloren. Bis gestern.Wenn entfernen = kicken:
- In das Template für die Suchergebnisse "noindex" rein
- Auf die Hauptseite einen unauffälligen Link zu einer Seite, die die Links zu den zu kickenden Seiten enthält, so dass der Bot das Corpus Delicti unkompliziert findet.
Wie gesagt - so hatte ich binnen ein paar Wochen das Problem gelöst.
Von über 20000 Seiten runter auf unter 1000.
Vielleicht ist das Problem aber auch ein ganz anderes!?
Ursache und Wirkung waren bei mir klar diagnostizierbar, aber ohne URL ist das schwierig zu beurteilen.
Ich würde dazu noch andere Meinungen einholen, bevor ich einen so tiefgreifenden Eingriff durchführe.