kann mir jemand sagen, warum g**gle meine forenseiten nicht spidert? Vermutlich mag er die SID's nicht, also diese Session-IDs die phpbb anhängt. Es sieht so aus als hätte man schon versucht das Forum von den Session-IDs zu befreien, aber komischerweise bekomme ich beim ersten Aufruf der Forenseite...
Da ich sowieso so gut wie nie zocke, ausser vielleicht ab und an mal ein Spiel was man heute als "betagt" bezeichnen würde, reicht bei mir auch jede GraKa.
Deshalb ist bei mir auch eine Radeon 9200 drin, die passivgekühlt schön brav und leise treu ihren Dienst verrichtet
Aber ich kann mir nicht vorstellen, dass der Bot sich viel anders verhält als ein Besucher. Er wird einen Link finden, diesen verfolgen, die Zielseite tag-bereinigt einlesen und speichern. Das mit der Art wie Google Links "verfolgt" scheinen wir schon anders zu sehen. Es macht ja keinen S...
kommen nicht mehrere Googlebots gleichzeitig, da dies ein Multiprozessing des Server voraussetzen würde. Es ist ein Multiserversystem, und die Arbeit wird zwischen den Servern aufgeteilt. Ich vermute auch dass die einzelnen Rechner Multiprozessing betreiben, da Google sonst eine Menge Zeit verplemp...
Hmm *grübel* @AnjaK: Also wenn ich Dich richtig verstehe, dann möchtst Du G-Bot beim ersten Zugriff auf eine Seite (und von dort an jeden zweiten Zugriff) genau auf dieselbe Seite per 301 Umlenken? tja, ist wohl eine gute Frage was sich G-Bot dann "denkt". Vielleicht fühlt er sich ja auch ...
Die logische Konsequenz des NoFollow-Attributs: die verlinkten Seiten verschlechtern ihr Ranking und wandern in den SERPsSERP ist die Abkürzung für die englische Formulierung "Search Engine Result Page". Die deutsche Übersetzung lautet Suchmaschinen - Ergebnisseite oder sinngemäss auch Su...
Mal von der Frage abgesehen ob der eine oder andere Browser eventuell den 302er-Code mitsendet: Was nutzt das für die SuMa-Spider? Die verfolgen keine Links wie ein User mit seinem Browser. Die sammeln die Links die sie finden und besuchen die Seiten dann mal irgendwann. Referer oder gar Umleitungsc...
Hab zwar ohne Ende doppelten Content in Google drin...aber ok ich denke da kann ich nicht viel mehr machen, oder? Siehe hier: Klick Du hast Seiten die doppelten Content erzeugen in der Robots.txt zwar für User-Agent "*" gesperrt (also für jeden anderen den Du nicht explizit aufgeführt has...
Ich hatte ursprünglich nur "Kapazitäten" und nicht "Rechenkapazitäten" geschrieben Ok, dann kam das Missverständnis wohl daher, weil Du Dich dabei auf die Iterationen des PR-Algos bezogen hattest. Und da das mehr oder weniger reine "Rechnerei" ist, wenn Google alle Dat...
Eine ständige Aktualisierung kann ich mir nicht vorstellen, da die PageRank Berechnung iterativ ist und erhebliche Kapazitäten erfordert (die ich google trotz des exorbitanten Börsenwertes nicht zutraue ). Hier schriebst du, dass Du Dir das nicht vorstellen kannst weil die Rechen-Kapazitäten fehlen...
Eine ständige Aktualisierung kann ich mir nicht vorstellen, da die PageRank Berechnung iterativ ist und erhebliche Kapazitäten erfordert (die ich google trotz des exorbitanten Börsenwertes nicht zutraue ). Naja, wer die Kapazitäten hat soviele Seiten auf die Art zu durchsuchen und zu crawlen wie Go...
Dazu mal eine Frage von mir Neuling: Ab wann gilt eine Domain für google als Autorität? Hängt das vom PR ab, oder von der Link-Pop, oder der Domain-Pop, oder muss die Domain auf Platz 1 sein bei einem Suchwort? Oder eine Kombination davon? Oder irgendwas, was ich vergessen habe? :) Ich lese immer wi...