Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Korrekter Titel, aber kein Snippet in den SERPS

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Neues Thema Antworten
matze
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 12.07.2004, 13:49

Beitrag von matze » 09.05.2005, 21:37

Hi Ihr,

kennt jemand von euch das Problem, dass Seiten komplett indexiert waren und von einem auf den anderen Tag keine der Seiten mehr eine Beschreibung ("Snippet") hat? Es geht hier nicht um Seiten, die nur mit der URL angezeigt werden.. sondern um Seiten, die nach wie vor gut in den SERPS gelistet sind.

Ich habe auf den Seiten keinen "nosnippet"-Tag, lediglich einen "noarchive"-Tag, der aber meines Wissens nach keine Snippets unterbinden sollte..

Hab zweimal von Google die Standardmail "Der Google-Index enthält zwei Arten von Seiten - vollständig und teilweise indizierte Seiten..." bekommen.. kann in diesem Falle aber nicht zutreffen..

Wer sich selbst ein Bild machen möchte, suche in Google nach dem aktuellen Thema "golf papst" ;-)

Grüße,
Matze

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Linktauscher
PostRank 1
PostRank 1
Beiträge: 15
Registriert: 06.05.2005, 07:53

Beitrag von Linktauscher » 10.05.2005, 11:07

sieht nach "slow-death" o.ä. aus, da mit der Abfrage von site:

alle Links kein Snippes (mehr) enthalten.

(nur eine Vermutung)
Linktausch-Forum
Linkpartner suchen und finden.

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 10.05.2005, 11:13

Versucht sich da jemand mit SerpASerp?
https://www.google.de/search?q=site%3Aw ... suche.html

Das sieht aber gar nicht gut aus.

Ferner:
Jurablogs.de enthält keine eigenen Inhalte ...
Den Gebern des Content will man nicht einmal einen ordentlichen Backlink geben, sondern maskiert alle ausgehenden Links mit 302, die aber wenigstens via robots.txt als Disallow gekennzeichnet sind...
Zuletzt geändert von bull am 10.05.2005, 11:16, insgesamt 2-mal geändert.

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

matze
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 12.07.2004, 13:49

Beitrag von matze » 10.05.2005, 11:14

Slow Death kenn ich nur in der Form, dass die Seiten nur noch mit der url vorhanden sind und auch bei keiner Suchanfrage angezeigt werden?!

Noch eine interessante Info: Die Seiten hatten seit Monaten den "noarchive"-Tag und trotzdem war der Link "Im Cache" neben allen Seiten.. bei einem Klick erschien dann eine "not found"-Seite von Google..

Seit die Snippets weg sind, ist auch der "Im Cache"-Link verschwunden..

matze
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 12.07.2004, 13:49

Beitrag von matze » 10.05.2005, 11:19

Was ist SerpASerp?

JuraBlogs ist ein sogenanntes Metablog, enthält also tatsächlich größtenteils keine eigenen Inhalte.
Das bedeutet allerdings keinesfalls, dass es für die Benutzer keinen Mehrwert gibt. Zur Zeit sind etwa 60 Blogs enthalten und die Autoren haben sich selbst dafür eingesetzt, dass ihre Artikel im Metablog erscheinen.

So werden juristische aktuelle Meldungen zusammengefasst präsentiert und damit ein eher mühsames Durchklicken durch die Blogs unnötig. Da es sich fast ausschließlich um juristische Inhalte handelt, ist die "Blogwelt" noch übersichtlich und eine Zusammenfassung tatsächlich hilfreich.

Die "Suche"-Links kommen daher zustande, da es Funktionen zur Suche nach ähnlichen Inhalten gibt, u.a. einen Link unter jedem Artikel, der nach ähnlichen Artikeln suchen lässt.
Versucht sich da jemand mit SerpASerp?
die suche.html exitiert nicht mehr.. es gibt eine Weiterleitung auf /suche/, deswegen die gewollten "Slow Death"-suche.html-Links
Zuletzt geändert von matze am 10.05.2005, 11:33, insgesamt 1-mal geändert.

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 10.05.2005, 11:32

Was ist SerpASerp?
Links oben ist eine Suchfunktion.
die suche.html exitiert nicht mehr.. es gibt eine Weiterleitung auf /suche/, deswegen die gewollten "Slow Death"-suche.html-Links
Irrelevant, es erfolgt ein 301 auf die neue Suche, die wiederum SerpASerp klar beabsichtigt, denn es ist ja kein Disallow: /suche/ gesetzt.

matze
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 12.07.2004, 13:49

Beitrag von matze » 10.05.2005, 11:38

Den Gebern des Content will man nicht einmal einen ordentlichen Backlink geben
Klicks auf sämtliche Artikel und Blogs werden über ein Zählscript geleitet. Die Anzahl der Aufrufe eines Artikels bestimmen wiederum die Platzierung und Darstellung der Artikel. Auf diese Art wird versucht, eine Gewichtung "interessanter Artikel und Blogs" vorzunehmen.

Korrekte Backlinks gibt es u.a. im Ranking und in den Bloglisten..

Hat jemand hier schonmal Erfahrungen mit komplett indexierten Seiten ohne Beschreibung gemacht?

matze
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 12.07.2004, 13:49

Beitrag von matze » 10.05.2005, 11:40

Irrelevant, es erfolgt ein 301 auf die neue Suche, die wiederum SerpASerp klar beabsichtigt, denn es ist ja kein Disallow: /suche/ gesetzt.
Okay.. stimmt.. hab ich tatsächlich nicht dran gedacht, hab ich aber eben geändert.. Mich interessieren nicht unbedingt Google-Links auf die Suche..

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 10.05.2005, 11:42

Klicks auf sämtliche Artikel und Blogs werden über ein Zählscript geleitet.
Warum dann disallowed in robots.txt usw. - ist für mich klare Absicht, hier keine LP/PR weitergeben zu wollen. Es gibt auch Javascript-Klickzähler, die bei ausreichender Menge Klicks repräsentativ sind.

matze
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 12.07.2004, 13:49

Beitrag von matze » 10.05.2005, 11:47

Warum dann disallowed in robots.txt usw. - ist für mich klare Absicht, hier keine LP/PR weitergeben zu wollen.
Nein.. quatsch.. echt nicht. Um LP/PR für die Autoren geht es dabei nicht. Ein Javascript-Klickzähler müsste ich ja wiederum an die Datenbanken anbinden, das geht meines Wissens nach nur per XMLHTTP, was wiederum nicht von allen Browsern (bspw. Opera) gehandelt werden kann.
Deswegen per PHP und über eine Umleitung.

Das disallow auf das Zählscript gibt es, da Google die Links weiterverfolgen wollte.. Das wollte ich aus Gründen verfälschter Klickzahlen und des Hijackings nicht.

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 10.05.2005, 11:52

Einen 301 statt 302 -> kein Hijacking

ad) JS --> DB

Code: Alles auswählen

function click(el) {
if(document.images){
(new Image()).src="/click/urlid?"+escape(el.href);
}
return true;} 

Code: Alles auswählen

<a href="http&#58;//www.target.it/" onmousedown="return click&#40;867627&#41;">
Zuordnung einer ID zu einer URL zugeordnet wird eh schon gemacht...

Code: Alles auswählen

Disallow&#58; /click/

Code: Alles auswählen

RewriteRule click\/urlid?&#40;.*&#41; clickeintragenindatenbank.php?id=$1
:idea:

matze
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 12.07.2004, 13:49

Beitrag von matze » 10.05.2005, 12:11

ad) JS --> DB
Danke! War mir (tatsächlich, wirklich) nicht bekannt! PHP, kein Problem.. aber mit JS stand ich oft eher auf Kriegsfuß..
Ich werd an der Stelle gerne auf JS umsteigen. Mir gehts nicht um PR- oder LP-Unterbindung.
Oft genug wird auf das Copyright hingewiesen und der Autor genannt. Das Bwußtsein ist schon da, dass es zum großen Teil kein eigener Content ist.

Aber warum eine Frage (zu einem immernoch von niemandem ernsthaft aufgegriffenen Problem der Titel ohne Snippet) gleich dazu führen muss, dass einige Freaks hier versuchen, unsere Server mit DOS-Attacken lahm zu legen? Mein Gott.. :roll:

bull
PostRank 9
PostRank 9
Beiträge: 2166
Registriert: 20.09.2003, 20:57
Wohnort: Vèneto

Beitrag von bull » 10.05.2005, 13:14

Umstieg auf die JS-Lösung ist sehr zu empfehlen, zusätzlich aber noch: den Click-JS-Code in externe .js-Datei auslagern und per <script src="/pfad/clicktrack.js" ... > in einem Verzeichnis unterbringen, das per robots.txt als Disallow markiert ist. Sonst kommen die ganzen Klicktrack-Pseudourls auch in den Index - Googlebot ist durchaus in der Lage, diese Image()).src="..."-Geschichten zu entschlüsseln ... :o
niemandem ernsthaft aufgegriffenen Problem der Titel ohne Snippet
Teilweise DC, unverhältnismäßig (das ist der Punkt) viel Müllurls auf der Domain --> mit den Tips hier Abhilfe schaffen und versuchen, das Projekt sauber zu kriegen --> z.B. für alles in /suche/ einen "410 Gone" dem Googlebot liefern via mod_rewrite .
unsere Server mit DOS-Attacken lahm zu legen?
:roll:

matze
PostRank 1
PostRank 1
Beiträge: 13
Registriert: 12.07.2004, 13:49

Beitrag von matze » 10.05.2005, 15:07

Danke für die Hilfe! Hab alle Tipps umgesetzt und warte jetzt mal ab..

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag