Seite 1 von 1

robots und keywords

Verfasst: Mo 28. Jan 2008, 10:06
von Vetinari
hallo,

bin gerade dabei meine site für google zu optimieren und frage mich, wie so ein spider/robot genau arbeitet, d.h. was er wirklich findet.
der spider durchsucht doch den quelltext einer seite, oder? findet er dann auch meine contenido hauptmenüpunkte?
falls er sie nicht finden sollte, macht es natürlich keinen sinn, diese als keywords dem artikel hinzuzufügen ...

gruss, V.

Verfasst: Mo 28. Jan 2008, 10:27
von holger.librenz_4fb

Verfasst: Mo 28. Jan 2008, 11:09
von Vetinari
das liebe ich an diesen foren so - dass man immer ungefragt google such-links geschickt bekommt :wink:

als würden alle davon ausgehen, dass man selbst noch nicht weiß wie man eine websuche durchführt ...

also nochmal: meine frage lautet: ist contenido so programmiert, dass der spider beim durchsuchen eines artikels (scripts) auch die hauptmenüpunkte findet, oder nicht?
es geht mir um den keyword-match. wenn ich die menüpunkte als keywords in den artikel-eigenschaften hinterlege, muss der spider diese auch als text erkannt haben, sonst hat das ganze ja keinen sinn ...

gruss, V.

Verfasst: Mo 28. Jan 2008, 11:16
von holger.librenz_4fb
Hi

Die Links sind öfter angebracht als Du glaubst, weil schlichtweg so gut wie niemand einfach mal die Suche bemüht. Daher sind Hinweise auf Google und die Forensuche mehr als angebracht.

Zu Deiner Frage: Contenido hat nur sehr peripher mit der Suchmaschinentauglichkeit zu tun. Die Meta-Tags können abhängig vom Artikel gesetzt werden und werden dann auch als solche in den Seiten berücksichtigt. Der Rest ist schlichtweg Arbeit für den Entwickler. Dieser entscheidet ob das Layout validierend implementiert ist, ob die Module suchmaschinentaugliche Ausgaben machen und und und. Das ist ja eben der Vorteil von Contenido, das man die völlige Freiheit hat. Wer eine JavaScript-only Menülösung implementiert und einsetzt wird sein blaues Wunder erleben, wenn er versucht bei Sucherergebnissen weiter oben anzukommen. Es gibt übrigens verschiedene Tools, die den SEO-Status einer Seite scoren (bin der Meinung das es auch mal was von Google gab). Dank der Krankheit, die ich immer vergesse, kommt mir grad nicht in den Sinn wo ich das gelesen hab und wie die URLs waren. Aber die Gedächtnisstütze Google hilft bei Bedarf da bestimmt weiter :)

So long
Holger

Verfasst: Mo 28. Jan 2008, 11:29
von Vetinari
danke!
gibt es eine möglichkeit, sich seine eigene website mit den "augen" eines robots anzusehen?

gruss, V.

Verfasst: Mo 28. Jan 2008, 11:37
von holger.librenz_4fb
Wie bereits erwähnt bin ich der Meinung so etwas mal gelesen zu haben. Allerdings solltest Du danach mal explizit suchen. Leider werden Suchmaschinenbetreiber sich nie wirklich in die Karten schauen lassen, aber grundsätzliche Dinge wie das Crawlen kann man sicherlich testen lassen. Wie dann das Scoring läuft ist eine Wissenschaft für sich und das womit die großen auch Geld machen :)

Von daher: Google is your friend(ly backup storage).

So long
Holger

Verfasst: Mo 28. Jan 2008, 11:44
von Vetinari

Verfasst: Mo 28. Jan 2008, 11:46
von holger.librenz_4fb
Yepp, WebEye und Poodle sind mir n Begriff. Habe ich allerdings noch nie persönlich getestet. Also wenn Du Lust hast, würden wir uns über ein paar Erfahrungswerte freuen.

So long
Holger

Verfasst: Mo 28. Jan 2008, 11:54
von Vetinari
ok, werd mal sehen, was ich machen kann. :wink:

apropos barrierefreiheit: der komplette admin-bereich von contenido funktioniert ja ohne eingeschaltetes javascript überhaupt nicht!

gruss, V.

Verfasst: Mo 28. Jan 2008, 11:56
von holger.librenz_4fb
Yepp, das Backend ist da leider noch eine Ausnahme. Momentan werden wir leider noch ein wenig damit leben müssen, aber auf lange Sicht wird sich auch da etwas tun müssen.

So long
Holger

Verfasst: Mo 28. Jan 2008, 12:57
von kummer
zunächst zu den spidern: die sehen die seite so, wie du sie auch siehst, wenn du dir den quellcode anschaust. das hat nur gar nichts mit dem system zu tun, das du verwendest. sondern lediglich mit der ausgabe, die du vornimmst.

und hinsichtlich der barrierefreiheit: das sollte wohl für die ausgabe bedeutend sein und weniger für die datenpflege. prinzipiell wäre das schon schön; allerdings bedeutet es auch einen verzicht von ajax. und das wäre für den komfort bei der datenpflege schon sehr schade.

Verfasst: Mo 28. Jan 2008, 13:34
von holger.librenz_4fb
Hi kummer.

Ich glaube die Frage zielte eher auf das Crawling-Verhalten der Bots für die Site ab. Da liegt oft der Teufel im Detail.

Was die Sache mit Ajax angeht: Ajax sollte in sinnhaften Anwendungen als nettes Gimmick fungieren, die Grundfunktionalität muss aber trotz allem gewährleistet sein. Es mag hier sinnvolle Ausnahmen geben, aber alles in allem ergänzt JS und anderes Scripting nur die Seiten - zumindest meiner Meinung nach :)

So long
Holger

Verfasst: Mo 28. Jan 2008, 14:35
von kummer
holger.librenz_4fb hat geschrieben:Was die Sache mit Ajax angeht: Ajax sollte in sinnhaften Anwendungen als nettes Gimmick fungieren, die Grundfunktionalität muss aber trotz allem gewährleistet sein. Es mag hier sinnvolle Ausnahmen geben, aber alles in allem ergänzt JS und anderes Scripting nur die Seiten - zumindest meiner Meinung nach :)
zwei leute, eine meinung. allerdings haben wir im backend die situation, dass wir mit einer vielzahl von daten konfrontiert sind, die die bearbeitung in der zwischenzeit - je nach grösse der site - schon langsam machen. hier kann ajax mehr, als nur als gimmick dienen. da kann es durchaus auch einen einfluss auf die performance haben.