Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Domain verbrannt?

Hier können Sie Ihre Fragen zum Thema Suchmaschinenoptimierung (SEO) / Positionierung stellen
11th
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 30.12.2004, 13:49

Beitrag von 11th » 08.01.2005, 19:12

frog hat geschrieben:Hallo,

habe heute feststellen können das beim Aufruf www.domain.de
die Domain www.domain.de/ mit cache wieder drinn ist, aber leider
werden die Links nicht weiter verfolgt die auf der Startseite sind, bzw. aktuallisiert.

Aufruf bei google mit www.domain.de
-------------------------------------------
domain.de (https://www.domain.de/)
Seitenbeschreibung


Google kann Ihnen die folgenden Informationen für diese URL anzeigen:

Google Cache-Version von www.domain.de anzeigen
Webseiten suchen, die www.domain.de ähnlich sind.
Webseiten suchen, die Links zu www.domain.de enthalten.
Webseiten suchen, die den Begriff "www.domain.de" enthalten.


Is das eine Hoffnung das dies kein Slow-Dearth ist, sondern "nur" ein Filter wegen eventl. doppeltem Content, da sich die Seiten ähnlich sind?


gruss,
frog
-][- 11th -][-

Stimmt die Domain oder ist das nur ein Beispiel?

Kann es vielleicht auch sein, das Google solange er noch nicht fertig ist auf deiner Seite, bestimmte Seiten so anzeigt?

Wenn ich aktuell in Google: domain

suche, dann kann ich die Domain.de als Ergebnis2 sehen und auch mit korrekter Beschreibung und PR beim betreten der Seite.

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 08.01.2005, 19:40

11th
Somit bekommt die IP/www1/dateiname von Server1 nen PR
Das ist nun ganz sicher keine IP, sondern max. ein Verzeichnis.
Dieses Verzeichnis ist aber für jeden Bot unbekannt, da aus diesem Verzeichnis nur
Dokumente (ohne Verzeichnisbezeichnung) durch den Apache ausgeliefert werden.
Die Server2 Domain wird wie geschrieben von Server1 durch die IP verlinkt auf IP/www1/dateiname
Jetzt geht es aber total durcheinander.
Ich glaube, dir fehtl da einfach etwas technischer Background.
Die Auflösung domain.tld wird durch den DNS gemacht.
Dieser meldet die IP-Adresse zurück, Aufruf geht an IP-Adresse, z.B. Port 80
(http-Request). Apache freut sich, och, ein Aufruf für mich...
Apache reitet los, guckt in seiner Konfiguration nach, ob virtuell oder über IP,
freut sich, och, virtuell
-> Apache sucht verzeichnis für Domain.tld
-> Apache guckt, was für ein Dokument
-> Apache guckt, ob Doku da,
-> Apache schickt Doku-Daten los...

Mal volkstümlilch gesagt.

Server2 kann nur Server2-Domains ausliefern, Server1 kann nur Server1 ausliefern. Normalerweise und ohne DNS-Tricks.

Google ist es sch... egal, welche IP hinter deiner Domain steht.

Guck dir mal https://64.233.171.147/ an,
da wird sogar Google drauf gehostet. Der IP ist jedoch nur durch die Verlinkungen auf die IP direkt entstanden.

Oder hab ich da im Kauderwelschen was falsch verstanden ?

11th
PostRank 3
PostRank 3
Beiträge: 97
Registriert: 30.12.2004, 13:49

Beitrag von 11th » 08.01.2005, 19:52

Pompom hat geschrieben:11th
Somit bekommt die IP/www1/dateiname von Server1 nen PR
Das ist nun ganz sicher keine IP, sondern max. ein Verzeichnis.
Dieses Verzeichnis ist aber für jeden Bot unbekannt, da aus diesem Verzeichnis nur
Dokumente (ohne Verzeichnisbezeichnung) durch den Apache ausgeliefert werden.
Die Server2 Domain wird wie geschrieben von Server1 durch die IP verlinkt auf IP/www1/dateiname
Jetzt geht es aber total durcheinander.
Ich glaube, dir fehtl da einfach etwas technischer Background.
Die Auflösung domain.tld wird durch den DNS gemacht.
Dieser meldet die IP-Adresse zurück, Aufruf geht an IP-Adresse, z.B. Port 80
(http-Request). Apache freut sich, och, ein Aufruf für mich...
Apache reitet los, guckt in seiner Konfiguration nach, ob virtuell oder über IP,
freut sich, och, virtuell
-> Apache sucht verzeichnis für Domain.tld
-> Apache guckt, was für ein Dokument
-> Apache guckt, ob Doku da,
-> Apache schickt Doku-Daten los...

Mal volkstümlilch gesagt.

Server2 kann nur Server2-Domains ausliefern, Server1 kann nur Server1 ausliefern. Normalerweise und ohne DNS-Tricks.

Google ist es sch... egal, welche IP hinter deiner Domain steht.

Guck dir mal https://64.233.171.147/ an,
da wird sogar Google drauf gehostet. Der IP ist jedoch nur durch die Verlinkungen auf die IP direkt entstanden.

Oder hab ich da im Kauderwelschen was falsch verstanden ?
-][- 11th -][-

Habe ich verstanden deine Ausführungen... gehe da auch wie Du es beschrieben hast mit.

Okay... ich versuche es nochmal mit dem Beispiel:

Ich nehme die Webseite www.1234.de, welche selbst einen Pagerank 2 besitzt (Beispiel).

Diese Webseite hat 1ne Startdatei und ist eine Frameseite.

Das Frameset sieht wie folgt aus:

frame1=https://123.123.123.123/1.htm
frame2=https://123.123.123.123/2.htm
frame3=https://123.123.123.123/3.htm

Der Server 123.123.123.123 ist mit einem Pagerank von 4 versehen.

Auf dem Server 123.123.123.123 lege ich eine SiteMap an, welche alle Links die sich auf dem Server-Webspace befinden anzeigt - diese Sitemap soll indexiert werden und ist für robots erreichbar - es müsste auch ohne Sitemap gehen. (somit habe ich 1 Link von Server1 und 1 Link von Server2 zu der gleichen Datei)

Ich habe nun die VERMUTUNG, das meine Webseite1 (1234.de) durch die gute PR des Servers 2 einen leichteren Weg für SuMa Optimierung mit sich bringt.

Das soll nicht so heissen das es so ist, aber ich würde mich freuen, wenn bei den vielen schlauen Köpfen hier, jemand vielleicht weiss warum das nicht so sein kann.

Ich gebe Dir aber Recht, das ich das in den ersten Posts falsch geschrieben habe bzw. umständlicher wie ich es eigentlich gemeint hatte - sorry - Grammatik kann man lernen *gg*

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 08.01.2005, 20:11

Der Server Der Server 123.123.123.123 , den du verlinkst, ist immer noch kein Server, sondern maximal ein Dokument im Dokumentenroot.

Siehe Abakus-Forum läuft auf IP: 213.239.200.134
Der Request https://213.239.200.134/ kommt nicht auf der IP an, sondern im Dokumentenroot des Webservers. Von diesem wird ein Dokument aufgerufen. Der Server bekommt definitiv keinen PR, sondern ein Dokument, was dort liegt. Dieses kann einen PR bekommen, Linkpop und anderen quark haben, jedoch nie die IP !

Unter deiner Annahme müsste jetzt jede Domain auf einem Webserver gegenseitig von PR oder irgendwelcher Themenrelevanz partizipieren, was oberquatsch wäre.
Beispiel Strato: Hosting auf dicken Maschinen mit zur Not >1 Mio. Domains unter einer IP-Adresse.

torfnase
PostRank 3
PostRank 3
Beiträge: 95
Registriert: 06.08.2004, 20:27

Beitrag von torfnase » 08.01.2005, 20:35

11th hat geschrieben: ... würde ich mitgehen mit deiner These, was mich nur wunder ist, wenn ich auf einer verbrannten Seite den Inhalt total neuaufziehe und es wirklich unmöglich ne Kopie dieser Seite geben kann, das es solange dauert bis die Anzeige wieder korrekt ist? Weisst Du wieso der Robot diese Seite so behandelt?
ich muß zugeben, daß das eine schwache Stelle in meinem Modell ist ;-)

Vielleicht so zu erklären: Wenn eine Website einen Show Death bis zum bitteren Ende durchlebt hat, (durchlebt ist gut gewählt, nicht wahr), dann kommt der Domainname vielleicht auch eine Art Schwarze Liste, damit der BOT sich gar nicht mehr um diese Seiten kümmern muß.
Vielleicht irgendetwas in der Art.

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 08.01.2005, 20:43

[torfnase]
Fazit: Slow Death ist keine willkürliche Bestrafung, sondern eine logische Folge.
Dass es bei Google irgendwelche Filter gibt, glaube ich nicht.
[/torfnase]

Aha, hmm...
Schwarze Listen sind wohl keine Filter ?


Auf meinen Slow Death Domains werden pro Tag noch ca. 10000 Dokumente von den Google-Bots gezupft. Und das schon sein Monaten, aber es nutzt nichts.

torfnase
PostRank 3
PostRank 3
Beiträge: 95
Registriert: 06.08.2004, 20:27

Beitrag von torfnase » 08.01.2005, 20:48

Pompom hat geschrieben: Aha, hmm...
Schwarze Listen sind wohl keine Filter ?
ich gab ja bereits zu, daß mein Model an der Stelle eine Schwäche aufweist.

Es könnte z.B. auch so sein, daß es keine schwarzen Listen gibt, sondern das Google die Seiten viel länger in seinem Index behält, als man sie dort mit site:domainname finden kann.
z.b. so was wie eine Schattenindex, das wäre eine andere mögliche Erklärung ;-)

Pompom
PostRank 10
PostRank 10
Beiträge: 3751
Registriert: 10.09.2004, 16:38

Beitrag von Pompom » 08.01.2005, 20:49

Oder sie werden einfach ausgefiltert.

Sololand
PostRank 7
PostRank 7
Beiträge: 544
Registriert: 28.11.2004, 01:03

Beitrag von Sololand » 09.01.2005, 15:01

Na ich linke z.B. auf ne IP, mein Server hat doch ne DNS und die DNS ist das wichtigste Projekt das platziere ich direkt auf den root ;) und schwups hat meine IP PRX

manute
PostRank 10
PostRank 10
Beiträge: 3010
Registriert: 22.07.2003, 11:02
Wohnort: Hamburg

Beitrag von manute » 09.01.2005, 18:02

Na ich linke z.B. auf ne IP, mein Server hat doch ne DNS und die DNS ist das wichtigste Projekt das platziere ich direkt auf den root und schwups hat meine IP PRX
und was bringt das? du willst das projekt wohl auch noch unter eine domain laufen lassen und schwupps, hast du duplicate content.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag