Du befindest Dich im Archiv vom ABAKUS Online Marketing Forum. Hier kannst Du Dich für das Forum mit den aktuellen Beiträgen registrieren.

Google Sitemaps

Dieses Forum ist für Informationen über Google gedacht (Ausser PageRank!).
Ranking-Check
PostRank 7
PostRank 7
Beiträge: 514
Registriert: 05.08.2003, 18:09
Wohnort: Köln

Beitrag von Ranking-Check » 05.06.2005, 15:54

Nun ist ja Python, dass man für den sitmape generator braucht nicht auf jedem webserver. Kennt jmd ein passendes Perl oder PHP Script

Anzeige von ABAKUS

von Anzeige von ABAKUS »


Hochwertiger Linkaufbau bei ABAKUS:
  • Google-konformer Linkaufbau
  • nachhaltiges Ranking
  • Linkbuilding Angebote zu fairen Preisen
  • internationale Backlinks
Wir bieten Beratung und Umsetzung.
Jetzt anfragen: 0511 / 300325-0

linux
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 05.05.2004, 09:45

Beitrag von linux » 05.06.2005, 16:16

so was in der art bischen umscheiben dann gehts

https://blog.reys.be/

hab auch noch so was in perl

aus der google sitemap group

https://groups-beta.google.com/group/go ... 6217472fe9

gruß

linux

Yel nats
PostRank 7
PostRank 7
Beiträge: 646
Registriert: 28.06.2004, 07:50

Beitrag von Yel nats » 06.06.2005, 07:43

Forenmensch hat geschrieben:Kann mir jemand erklären wie ich die xml am einfachsten schreibe, ich verstehe nur Bahnhof...mir ist klar was eine XML Datei ist, aber ich trage wohl kaum z.B. vom Forum 44.000 URLS von Hand ein... :lol:
Das wüsste ich auch mal gern :D

Habe derzeit:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="https://www.google.com/schemas/sitemap/0.84">
<url>
<loc>https://www.test.de</loc>
<lastmod>2005-06-06</lastmod>
<changefreq>daily</changefreq>
<priority>1.0</priority>
</url>

Mir ist aber nun noch nicht ganz klar ob es da jetzt automatisch alle html Flies nimmt...

Yel Nats

Anzeige von ABAKUS

von Anzeige von ABAKUS »

Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

tingting
PostRank 4
PostRank 4
Beiträge: 107
Registriert: 18.10.2004, 09:49
Wohnort: München

Beitrag von tingting » 06.06.2005, 08:37

habe hier etwas für php gefunden.
--> https://enarion.net/google/
es scheint so als das script die statischen datein durchsucht und in eine xml datei schreibt.

Fridaynite
PostRank 10
PostRank 10
Beiträge: 2983
Registriert: 07.01.2004, 09:10

Beitrag von Fridaynite » 06.06.2005, 08:52

tingting hat geschrieben:habe hier etwas für php gefunden.
--> https://enarion.net/google/
es scheint so als das script die statischen datein durchsucht und in eine xml datei schreibt.
Wie sieht das ganze denn bei dynamischen Seiten aus?
Wird da aus der Datenbank rausgelesen?

tingting
PostRank 4
PostRank 4
Beiträge: 107
Registriert: 18.10.2004, 09:49
Wohnort: München

Beitrag von tingting » 06.06.2005, 08:58

das script ist nicht von mir. aus der datenbank auslesen wird schwierig sein ein script für alle zu erstellen.
jede hat für seine homepage doch eine andere datenbank struktur.
ich habe zwar eine klasse programmiert, die als input ein array mit den benötigten werten hat. jeder eintrag wäre dann eine datei....
so ist mir der dateninput egal... ob dateisystem oder von der datenbank...
das script ist nicht sehr groß, ist aber an eine php libary gebunden und die libary ist sehr groß....
aber so eine klasse ist doch relative einfach...

--> kleiner codeklau:

foreach ($a as $file) {
?>
<url>
<loc><? echo utf8_encode($website.$file); ?></loc>
<lastmod><? echo utf8_encode($last_modification);?></lastmod>
<changefreq><? echo utf8_encode($changefreq); ?></changefreq>
<priority><? echo utf8_encode($priority); ?></priority>
</url>
<?
}

Jansen
PostRank 3
PostRank 3
Beiträge: 72
Registriert: 02.12.2004, 11:33
Wohnort: Pinneberg

Beitrag von Jansen » 06.06.2005, 11:26

Hallo,

ich habe übers Wochenende ähnliche Beobachtungen wie linux gemacht:

Code: Alles auswählen

66.249.66.116 - - &#91;03/Jun/2005&#58;09&#58;27&#58;30 +0200&#93; "HEAD /sitemap.xml HTTP/1.1" 200 0 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;03/Jun/2005&#58;09&#58;30&#58;21 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;03/Jun/2005&#58;21&#58;30&#58;31 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;03/Jun/2005&#58;21&#58;35&#58;33 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;04/Jun/2005&#58;09&#58;35&#58;36 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;04/Jun/2005&#58;09&#58;40&#58;38 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;04/Jun/2005&#58;21&#58;40&#58;50 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;04/Jun/2005&#58;21&#58;45&#58;54 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;05/Jun/2005&#58;09&#58;46&#58;00 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;05/Jun/2005&#58;09&#58;51&#58;02 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;05/Jun/2005&#58;21&#58;51&#58;10 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;05/Jun/2005&#58;21&#58;56&#58;12 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;06/Jun/2005&#58;07&#58;21&#58;30 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;06/Jun/2005&#58;09&#58;56&#58;16 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
66.249.66.116 - - &#91;06/Jun/2005&#58;10&#58;01&#58;18 +0200&#93; "GET /sitemap.xml HTTP/1.1" 200 153181 "-" "Mozilla/5.0 &#40;compatible; Googlebot/2.1; +http&#58;//www.google.com/bot.html&#41;"
Google scheint in die ganzen Sitemaps ziemlich verknallt zu sein, aber weiter darauf eingegangen ist der Googlebot nicht. Es wurden 12 Unterseiten von der Site gespidert, die teils in der Sitemap sind, teils nicht.

Ich vermute also, daß der Inhalt der Sitemap (noch) egal ist, bzw. erst beim nächsten Deep-Crawl zum tragen kommt.

Grüße,
Jan

P.S.: Ach ja: Bis jetzt sind auch noch keine Seiten aus dem Index geflogen, die nicht in der Sitemap sind...

linux
PostRank 7
PostRank 7
Beiträge: 524
Registriert: 05.05.2004, 09:45

Beitrag von linux » 06.06.2005, 14:10

jupp kommt oft bei mir von der ip 66.249.66.193

lmit den php/perl/python scripten geht das leicht

wenn man z.b wie ich das access.log nimmt muß das xml in iso-15 erstellt werden nicht utf-8 außer das access log ist in utf-8.

ich werde bald mal ein script in php bauen das dann die lastmod aus der db holt und die update feq. dazuschreibt.

ich werde es dann posten .

gruß

linux

MikeD
PostRank 4
PostRank 4
Beiträge: 108
Registriert: 12.08.2004, 22:32
Wohnort: Idar-Oberstein

Beitrag von MikeD » 06.06.2005, 16:21

Kann bisher 2 Sachen vermerken:

a) Anmeldung per Direktaufruf:
Abholung erfolgte 1x (einmal) - hält sich also an das : 'sag mir wenn ich schauen soll'

b) Anmeldung über das google-Konto:
bot kommt täglich vorbei - holt sich meistens mit 5 Minuten Abstand die Sitemap und ist wieder weg

zu b) - ein relevanter Feldtest dürfte für Google nur interessant sein mit einer gewissen Anzahl von sitemap-Dateien um die Laufzeiten etc. zu sehen und ob filter, algos etc. so arbeiten wie sie sollen
denke also derzeit ist das große Sammeln angesagt, bei dem die Update-Mechanismen kontrolliert werden, bevor das nächste Script seine Arbeit aufnimmt.

Luki
PostRank 2
PostRank 2
Beiträge: 49
Registriert: 05.05.2004, 20:35

Beitrag von Luki » 06.06.2005, 16:52

b) Anmeldung über das google-Konto:
bot kommt täglich vorbei - holt sich meistens mit 5 Minuten Abstand die Sitemap und ist wieder weg

hab jetzt auch eine solch dynamische Datei, allerdings wie bringe ich Google bei, das es täglich einmal vorbei kommt um die Datei zu aktualisieren? (ohne mich in diesen Sitemap Center einzuloggen)

gsyi
PostRank 8
PostRank 8
Beiträge: 696
Registriert: 18.10.2004, 18:16
Wohnort: Frankfurt

Beitrag von gsyi » 06.06.2005, 16:53

Yel nats hat geschrieben:
Forenmensch hat geschrieben:Kann mir jemand erklären wie ich die xml am einfachsten schreibe, ich verstehe nur Bahnhof...mir ist klar was eine XML Datei ist, aber ich trage wohl kaum z.B. vom Forum 44.000 URLS von Hand ein... :lol:
Das wüsste ich auch mal gern :D

Habe derzeit:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="https://www.google.com/schemas/sitemap/0.84">
<url>
<loc>https://www.test.de</loc>
<lastmod>2005-06-06</lastmod>
<changefreq>daily</changefreq>
<priority>1.0</priority>
</url>

Mir ist aber nun noch nicht ganz klar ob es da jetzt automatisch alle html Flies nimmt...

Yel Nats
fehlt zum Schluss noch ein </urlset> ;)

magadoo
PostRank 5
PostRank 5
Beiträge: 257
Registriert: 02.11.2004, 14:14

Beitrag von magadoo » 06.06.2005, 17:09

Ich habe mir mal eine Sitemap mit php für mein phpBB Forum (allerdings erstmal nur alle Hauptthreads) un alle php-Dateien im Hauptordner generieren lassen. Wegen mod_rewrite gebe ich die URLs dann als HTML-Dateien an:
https://www.geld-marketing.de/google-sitemap.php

Zusätzlich habe ich noch das lastmod-Tag eingebaut (aus topic_date und letzter Änderung meiner Dateien), die anderen werden bei Bedarf noch folgen. Den Code dazu gibts übrigens hier:
https://www.geld-marketing.de/forum/ftopic51.html

easore
PostRank 2
PostRank 2
Beiträge: 32
Registriert: 27.12.2004, 16:20

Beitrag von easore » 07.06.2005, 11:15

hab mich auch mal an der sitemap versucht...allerdings fluppt das irgendwie noch nicht.

ich habe die daten (1x gestern und 1x heute) manuell an google übermittelt. sprich über:

https://www.google.com/webmasters/sitem ... itemap=URL
(auch jedes mal einen Status 200 OK bekommen)

leider habe ich in den logs noch keine zugriff auf meine sitemap feststellen können, das gibt mir ein wenig zu denken da es ja bei einigen hier im forum ziemlich schnell ging bis der bot kam...

Kralle
PostRank 10
PostRank 10
Beiträge: 2925
Registriert: 08.04.2005, 00:47
Wohnort: Deggingen

Beitrag von Kralle » 07.06.2005, 12:20

Auch auf die Gefahr hin, mich als DAU zu outen, aber so ganz klar ist mir Google-Sitemaps noch nicht :-?

Verstehe ich es richtig, daß ich die XML-Datei auch "manuell" erstellen kann, und Python dafür nicht zwingend benötige?

Welche Dateitypen sollten/dürfen darin aufgeführt sein? HTML ist klar, aber auf der Google-eigenen Sitemap sind auch noch Bilddateien aufgeführt. Macht das Sinn? Für die Bildersuche? Würde es auch Sinn machen, Multimediadateien aufzulisten?

Fragen über Fragen...

stalker
PostRank 6
PostRank 6
Beiträge: 400
Registriert: 29.01.2004, 18:00

Beitrag von stalker » 07.06.2005, 12:30

ja du kannst die datei auch per hand oder mit einem anderen programm erstellen

die nötige doku gibt es hier

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag