Ich interessiere mich dafür wie es facebook gemacht hat, das diese ganzen "abgespeckten" Profilseiten im Google Index gelandet sind?
Wurde jedes Profil wirklich gebaut und in den Index geachafft oder meint Ihr da steckt etwas automatisiertes hinter. Also, das das Profil erst im Moment der Suchabfrage erstellt wird?
auch die Profile werden dynamisch sein, so wieder rest von facebook... also jede seite wird erst bei Aufruf neu erstellt... und um sie zu finden reicht doch wenn Google einen Link zu dieser Unterseite findet... oder wenn die urls per sitemap eingereicht wurden...
Mir geht es eigentlich "nur" darum wie z.B. facebook es geschafft hat alle diese Profile in den Index zu bekommen.
Punkt 1: Da hat sich doch bestimmt nicht einer hingesetzt und alle Profile nocheinmal geschrieben. Also etwas automatisiertes?
Punkt 2: Da wie bereits oben gesagt Seiten nur indexiert werden können wenn es sie tatsächlich gibt...wie sind diese im Zweifelsfall automatisiert erstellten Profile im Index gelandet?
Hoffe ich konnte meine Frage etwas anders formulieren
sorry der smilie musste sein *g*
vorallem bei punkt1.
also mit PHP ist das kein problem dynamische Seiten aufzubauen.
die Profilinformationen werden aus der Datenbank geladen und angezeigt.
die seite heißt z.b. profil.php
mit nem parameter wird das ganze nun dynamisch (die unterscheidung, um welches profil es sich handelt)
z.B. profil.php?user=MaxMustermann
somit werden die Daten von Herrn Mustermann angezeigt.
wenn der Googlebot nun auf diesen Link stößt nimmt er ihn in den Index auf.
aber ich glaube Facebook hat sogar nen schöneren Link ohne Parameter.
z.b. profil/MaxMustermann.php