Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

PR-Prüfung, komisches Ergebnis !!!

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Linda
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 15.05.2005, 09:48

Beitrag von Linda » 24.06.2005, 13:15

Hallo,

zunächst mal ein herzliches Danke @Chris.
- Splash-Page kostet den Googlebot einen zusätzlichen Klick bis er beim eigentlichen content ist. Der Spruch ist zwar eine nette Idee, aber SuMa-technisch schlecht
Ich weiss, dass das nicht so schön ist für die Sumas, aber erst mal bleibt die. Wir haben ein Design-Relaunch erst für Anfang nächsten Jahres vorgesehen.
- Links mit ? in der URL. Google kann zwar mit einfachen dynamischen Links (so wie bei Dir) umgehen, aber es ist tendenziell ein Hindernis. Guck mal hier im Forum nach "mod_rewrite". Schreibe damit die dynamischen URLs um, so dass sie wie "normale" Links (d.h. ohne ?) aussehen

- Bau eine HTML Sitemap, die Du von der Startseite aus verlinkst. So umgehst Du zumindestens die Problematik, dass Google die Seiten wieder aus dem Index kickt, da keine internen Links vorhanden sind.
Okay, das ist dann eine Baustelle des Webdesigners/Programmierers ... dafür bin ich zu blond ... ;)
Du sprichst ja hier von der XML Google-Sitemap. Löschen vielleicht nicht unbedingt, aber zumindestens zustammenstutzen.

5000 Seiten auf einen Schlag ohne saubere interne Verlinkung könnte leicht als SPAM angesehen werden.
Yo, die Google-Sitemap, die bei mir eine händische .txt ist. Diese enthält witzigerweise garnicht 5.000 "Seiten", sondern knapp die Hälfte. Den Rest hat Google irgendwie selbst dazu gemacht. Stand heute morgen: 5.470 lt. Google, 5.510 lt. domain-pop ... grrrr
Habe die Map jetzt etwas zusammengestaucht (alle Suchregister-Links entfernt).

Jetzt werde ich mich mal zurücklehnen, abwarten, Kaffee trinken, der Google-Göttin ein Opfer bringen und beten, dass die vorhandenen Backlinks (einige PR 4, ein 5er) verhindern, dass die Page als Spam eingestuft wird und abstürzt.

Thanx again for help.

Sonnige Grüße

Linda (-:

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

vidiente
PostRank 2
PostRank 2
Beiträge: 55
Registriert: 29.05.2004, 21:38

Beitrag von vidiente » 24.06.2005, 14:32

hallo linda,

wieso wunderst du dich denn ?

ein grober blick in die site-suche deiner domain reicht doch
aus, um zu sehen dass es von mirror-sites nur so wimmelt.

ist doch klar, dass google die als solche erkennt und ohne
beschreibung auswirft.

gruss

vidiente

Linda
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 15.05.2005, 09:48

Beitrag von Linda » 24.06.2005, 14:43

[quote="vidiente"]
ein grober blick in die site-suche deiner domain reicht doch
aus, um zu sehen dass es von mirror-sites nur so wimmelt.
[/quote]

Mirror-Sites? Nein, eigentlich können das keine Mirrorsites sein, da jede "Site" ein eigener Medientitel ist. Die Bibliographie umfasst derzeit über 1.600 Einträge. Da ist nix gespiegelt.

Oder interpretiere ich den Begriff Mirrorsite falsch?

Gruss

Linda (-:

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 24.06.2005, 15:23

vidiente hat geschrieben:ein grober blick in die site-suche deiner domain reicht doch
aus, um zu sehen dass es von mirror-sites nur so wimmelt.
Das sind keine Mirror-Seiten. Linda hat ein problem mit der internen Verlinkung. Google hat auf Grund der Sitemap-Geschichte jede Menge Dateien gespidert für die Google (im Moment noch) keine Links findet. Daher fliegen die Sachen wieder raus. Siehe auch das Post von Linkpop.

Chris

Linda
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 15.05.2005, 09:48

Beitrag von Linda » 24.06.2005, 15:34

Danke Chris ... :)

Ich war gerade eben ein wenig baff, ob der imho etwas harschen Aussage von vidiente.
Mag sein, dass die site-Abfrage bei Google erst einmal diesen Mirror-Verdacht aufkommen lässt, macht man sich aber mal die Mühe, auf den einen oder anderen Link zu klicken, sieht man schnell, dass da nichts "gespiegelt" ist.

Das Thema "interne Verlinkung" werde ich so schnell wie möglich mit "unserem" Programmierer besprechen und entsprechend gegensteuern - z. B. mit der von dir angeratenen HTML-Sitemap.

And again: Ich bin absoluter n00b, was das Thema Webseiten und deren Usability für Suchmaschinen betrifft - ich komme eher aus der Kreativecke. Deshalb les' ich hier ja auch fleissig mit. Was aber eben auch dazu führt, dass von mir im Zweifel auch schon mal aus Sicht der Profis dumme Fragen kommen können.

Noch mal sonnige Grüße

Linda
<die eigentlich nicht wollte, dass der Thread aufgrund ihrer dummen Fragen so lang wird>

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 24.06.2005, 16:02

Linda hat geschrieben:Das Thema "interne Verlinkung" werde ich so schnell wie möglich mit "unserem" Programmierer besprechen und entsprechend gegensteuern - z. B. mit der von dir angeratenen HTML-Sitemap.
Pass aber auf, dass die Sitemap nicht zu gross wird. Google gibt in seine Guidelines ca. 100 links an. Bei mehr als 100 Seiten mehrere Sitemaps erstellen.

Wenn Du dann die dynamischen URLs in statische URLs umgewandelt hast, sollte Google auch von alleine die entsprechenden Seiten finden. Mit der HTML Sitemap "verkürzt" Du im Endeffekt den Klickweg.

Chris

ION
PostRank 6
PostRank 6
Beiträge: 396
Registriert: 24.05.2005, 14:58
Wohnort: Schwerin

Beitrag von ION » 24.06.2005, 17:14

LinkPop hat geschrieben:
webengine hat geschrieben:Google sucht zuerst die Seiten und erst später wird der Inhalt (Description usw.) gespidert.
Seit wann denn das?
google schreibt:
Warum erscheint manchmal der Titel der Seite nicht in den Ergebnissen?

Im Gegensatz zu vielen Suchmaschinen kann Googles Web-Crawler (Googlebot) auch dann Ergebnisse liefern, wenn er die Seite noch nicht durchlaufen hat. Seiten, die bekannt sind, aber noch nicht durchlaufen worden sind, können als Ergebnisse angezeigt werden. Da wir allerdings noch nicht mit ihnen verbunden waren, wird - anstatt der Titel - die URL angezeigt.
es ist also sehr wohl so, dass eine seite erst nur rudimentär mit einigen rumpfinformationen drinsteht und praktisch vorgemerkt ist. erst wenn die seite wirklich durchlaufen wird, werden die inhalte nachgereicht.

https://www.google.de/intl/de/faq.html#notitle

LinkPop
PostRank 9
PostRank 9
Beiträge: 1677
Registriert: 02.05.2004, 13:52

Beitrag von LinkPop » 24.06.2005, 17:24

ION hat geschrieben:
LinkPop hat geschrieben:
webengine hat geschrieben:Google sucht zuerst die Seiten und erst später wird der Inhalt (Description usw.) gespidert.
Seit wann denn das?
google schreibt:
Warum erscheint manchmal der Titel der Seite nicht in den Ergebnissen?

Im Gegensatz zu vielen Suchmaschinen kann Googles Web-Crawler (Googlebot) auch dann Ergebnisse liefern, wenn er die Seite noch nicht durchlaufen hat. Seiten, die bekannt sind, aber noch nicht durchlaufen worden sind, können als Ergebnisse angezeigt werden. Da wir allerdings noch nicht mit ihnen verbunden waren, wird - anstatt der Titel - die URL angezeigt.
es ist also sehr wohl so, dass eine seite erst nur rudimentär mit einigen rumpfinformationen drinsteht und praktisch vorgemerkt ist. erst wenn die seite wirklich durchlaufen wird, werden die inhalte nachgereicht.

https://www.google.de/intl/de/faq.html#notitle
Mag ja da stehen, hab ich allerdings noch nie gesehen. Im übrigen steht dort "...noch nicht mit ihnen verbunden waren...", das heißt, daß der Bot noch gar nicht da war und so ist es auch seitens Google gemeint.
[url=httpss://www.rankseek.com/][img]httpss://www.rankseek.com/img/rankseek-xs-2.png[/img][/url]
  • Täglicher Ranking-Check Deiner Top-Keywords mit Traffic-Index für Mobile und Desktop, Serp-View, Reporting, Ranking-Charts, Konkurrenzanalyse, Ranking-Verteilung, Keyword-Suggest und mehr für nur 11,90 € / Monat. Jetzt alle rankseek-Tools 30 Tage kostenlos testen » [url=httpss://www.rankseek.com/features.php]Features[/url]

Chris2005
PostRank 9
PostRank 9
Beiträge: 1284
Registriert: 14.04.2005, 23:58

Beitrag von Chris2005 » 24.06.2005, 17:31

Bezüglich dieser Sache habe ich im Google Sitemaps Thread schon etwas geschrieben. Eine nicht verlinkte Domain steht als URL-only (inkl. Unterseite) in den SERPs. Das würde ja zu dem hier beobachteten Phänomen (PR0 Domain pumpt hunderter/tausende Seiten ohne ausreichende Verlinkung in den Index) passen.

@Linda: Noch eine Anmerkung. Meiner Meinung nach ist das Umschreiben der URLs erstmal wichtiger als die html sitemap. Google kann sich sehr schnell in den dynamischen URLs verheddern und so ruckzuck DC produzieren. Achtet vor allem darauf, dass z.B. die Suchfunktion per robots.txt gesperrt ist. Da gibt es auch Fälle, dass Google irgendwelche Sache "einträgt". Sollte zwar nicht passieren, tritt aber trotzdem auf :)

ION
PostRank 6
PostRank 6
Beiträge: 396
Registriert: 24.05.2005, 14:58
Wohnort: Schwerin

Beitrag von ION » 24.06.2005, 17:35

LinkPop hat geschrieben:Mag ja da stehen, hab ich allerdings noch nie gesehen. Im übrigen steht dort "...noch nicht mit ihnen verbunden waren...", das heißt, daß der Bot noch gar nicht da war und so ist es auch seitens Google gemeint.
Noch nie gesehen? Ich kenne das bei meinen neuen Projekten nicht anders. Zunächst bestehen die Seiten hauptsächlich aus der bloßen Adresse. Ist ja auch nachvollziehbar: Der Google-Bot spidert ja nicht bei jeder Präsenz sofort alle Seiten. Wenn er aber einen Link gefunden hat, zeigt er ihn schonmal an. Welchen praktischen Sinn das für den Nutzer hat, ist mir nicht ganz klar. Eigentlich keinen. Vielleicht will Google auch einfach nur ein bisschen mit der Zahl der gefundenen Seiten angeben...

Bei den Sitemaps läuft es evtl. genauso: Die angemeldeten Seiten werden vorgemerkt, bis die tatsächlichen Inhalte gespidert sind.

Und das ist ausnahmsweise mal keine Spekulation, sondern halt den Google FAQs entnommen...

bydlo
PostRank 9
PostRank 9
Beiträge: 2209
Registriert: 11.12.2004, 01:03
Wohnort: Berlin

Beitrag von bydlo » 26.06.2005, 00:34

@linda,
ich finde nicht das die site es verdient hat 5000 seiten im index zu haben.
ist doch zum grössten teil nix anderes als ein verkapptes amazon partnerprogramm ohne echten nützlichen eigenen inhalt.
vielleicht sieht google das genauso?
und ein grossteil der 5000 besteht aus sehr ahnlichem inhalt-womöglich sogar doppelt?

Linda
PostRank 1
PostRank 1
Beiträge: 7
Registriert: 15.05.2005, 09:48

Beitrag von Linda » 26.06.2005, 10:54

@bydlo,

imo geht es nicht darum, eine Page hier nach ihrer Nützlichkeit zu beurteilen. Ob nützlich oder nicht, entscheidet der Besucher.

Ich habe darauf hingewiesen, dass die Seite als Informationsangebot für eine relativ kleine Zielgruppe gedacht ist, zu der du vielleicht nicht gehörst.

Auch wenn ich mich hier eigentlich nicht wirklich rechtfertigen muss ... alle eventuellen Einnahmen aus dem, was du als "verkapptes Partnerprogramm" bezeichnest, gehen als Spende an zwei deutsche Vereine.
Zuletzt geändert von Linda am 26.06.2005, 11:19, insgesamt 2-mal geändert.

phereia
PostRank 8
PostRank 8
Beiträge: 726
Registriert: 23.04.2004, 23:19

Beitrag von phereia » 26.06.2005, 11:14

Linda hat geschrieben:Ob nützlich oder nicht, entscheidet der Besucher.
Nicht nur - sondern auch die Suchmaschine. Was aus Sicht der Suchmaschine "nützlich" (resp. "relevant") ist, erscheint in den Ergebnissen auf vorderer Position.

ION
PostRank 6
PostRank 6
Beiträge: 396
Registriert: 24.05.2005, 14:58
Wohnort: Schwerin

Beitrag von ION » 26.06.2005, 11:19

hallo linda, dieser hinweis ist wohl wichtig:
Verwenden Sie "&id=" nicht als Parameter in Ihren URLs, da wir diese Seiten nicht in unseren Index aufnehmen.
https://www.google.com/webmasters/guidelines.html
E-Book: Tipps & Tricks: Werbung mit Google AdWords
Konkrete Linktauschanfragen willkommen.

ION
PostRank 6
PostRank 6
Beiträge: 396
Registriert: 24.05.2005, 14:58
Wohnort: Schwerin

Beitrag von ION » 26.06.2005, 11:27

und nochmal zum grundsätzlichen thema der treffer ohne beschreibungstext ein weiteres zitat von den google-seiten:
Der Google-Index enthält zwei Arten von Seiten – vollständig und teilweise indizierte Seiten. Ihre Seite ist im Augenblick nur teilweise indiziert, d.h., Ihre Website ist uns zwar bekannt, doch unsere Suchroboter haben in den vergangenen Durchläufen nicht den gesamten Inhalt Ihrer Seiten erfasst. Dies hat keine negativen Auswirkungen auf Ihren PageRank-Wert oder die Aufnahme in unseren Index. Uns liegen in diesem Fall allerdings keine ausführlichen Informationen über Ihre Seite vor. Daher zeigen wir die entsprechende URL als Titel an und lassen die Beschreibung weg. Wir verstehen, dass dies für Sie unter Umständen ärgerlich ist, und bemühen uns deshalb ständig, die Anzahl der vollständig indizierten Seiten in unseren Suchergebnissen zu erhöhen.
https://www.google.com/webmasters/3.html

auf lindas fall trifft das wohl nicht zu, da scheint das problem beim "id"-parameter zu liegen. aber die fragen nach den fehlenden beschreibungstexten kommt ja immer wieder.

auf den ersten blick gilt dieser hinweis nur für neue seiten. [spekulation]aber ich könnte mir vorstellen , dass das auch bei einer alten seite passieren könnte, die neu erfasst werden soll, aber noch nicht wieder ganz neu erfasst ist.[/spekulation]

wie in vielen fällen also auch hier: don't panic ;)

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag