robots und keywords
robots und keywords
hallo,
bin gerade dabei meine site für google zu optimieren und frage mich, wie so ein spider/robot genau arbeitet, d.h. was er wirklich findet.
der spider durchsucht doch den quelltext einer seite, oder? findet er dann auch meine contenido hauptmenüpunkte?
falls er sie nicht finden sollte, macht es natürlich keinen sinn, diese als keywords dem artikel hinzuzufügen ...
gruss, V.
bin gerade dabei meine site für google zu optimieren und frage mich, wie so ein spider/robot genau arbeitet, d.h. was er wirklich findet.
der spider durchsucht doch den quelltext einer seite, oder? findet er dann auch meine contenido hauptmenüpunkte?
falls er sie nicht finden sollte, macht es natürlich keinen sinn, diese als keywords dem artikel hinzuzufügen ...
gruss, V.
Si non confectus, non reficiat. (Motto der Vetinaris)
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
das liebe ich an diesen foren so - dass man immer ungefragt google such-links geschickt bekommt
als würden alle davon ausgehen, dass man selbst noch nicht weiß wie man eine websuche durchführt ...
also nochmal: meine frage lautet: ist contenido so programmiert, dass der spider beim durchsuchen eines artikels (scripts) auch die hauptmenüpunkte findet, oder nicht?
es geht mir um den keyword-match. wenn ich die menüpunkte als keywords in den artikel-eigenschaften hinterlege, muss der spider diese auch als text erkannt haben, sonst hat das ganze ja keinen sinn ...
gruss, V.

als würden alle davon ausgehen, dass man selbst noch nicht weiß wie man eine websuche durchführt ...
also nochmal: meine frage lautet: ist contenido so programmiert, dass der spider beim durchsuchen eines artikels (scripts) auch die hauptmenüpunkte findet, oder nicht?
es geht mir um den keyword-match. wenn ich die menüpunkte als keywords in den artikel-eigenschaften hinterlege, muss der spider diese auch als text erkannt haben, sonst hat das ganze ja keinen sinn ...
gruss, V.
Si non confectus, non reficiat. (Motto der Vetinaris)
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
Hi
Die Links sind öfter angebracht als Du glaubst, weil schlichtweg so gut wie niemand einfach mal die Suche bemüht. Daher sind Hinweise auf Google und die Forensuche mehr als angebracht.
Zu Deiner Frage: Contenido hat nur sehr peripher mit der Suchmaschinentauglichkeit zu tun. Die Meta-Tags können abhängig vom Artikel gesetzt werden und werden dann auch als solche in den Seiten berücksichtigt. Der Rest ist schlichtweg Arbeit für den Entwickler. Dieser entscheidet ob das Layout validierend implementiert ist, ob die Module suchmaschinentaugliche Ausgaben machen und und und. Das ist ja eben der Vorteil von Contenido, das man die völlige Freiheit hat. Wer eine JavaScript-only Menülösung implementiert und einsetzt wird sein blaues Wunder erleben, wenn er versucht bei Sucherergebnissen weiter oben anzukommen. Es gibt übrigens verschiedene Tools, die den SEO-Status einer Seite scoren (bin der Meinung das es auch mal was von Google gab). Dank der Krankheit, die ich immer vergesse, kommt mir grad nicht in den Sinn wo ich das gelesen hab und wie die URLs waren. Aber die Gedächtnisstütze Google hilft bei Bedarf da bestimmt weiter
So long
Holger
Die Links sind öfter angebracht als Du glaubst, weil schlichtweg so gut wie niemand einfach mal die Suche bemüht. Daher sind Hinweise auf Google und die Forensuche mehr als angebracht.
Zu Deiner Frage: Contenido hat nur sehr peripher mit der Suchmaschinentauglichkeit zu tun. Die Meta-Tags können abhängig vom Artikel gesetzt werden und werden dann auch als solche in den Seiten berücksichtigt. Der Rest ist schlichtweg Arbeit für den Entwickler. Dieser entscheidet ob das Layout validierend implementiert ist, ob die Module suchmaschinentaugliche Ausgaben machen und und und. Das ist ja eben der Vorteil von Contenido, das man die völlige Freiheit hat. Wer eine JavaScript-only Menülösung implementiert und einsetzt wird sein blaues Wunder erleben, wenn er versucht bei Sucherergebnissen weiter oben anzukommen. Es gibt übrigens verschiedene Tools, die den SEO-Status einer Seite scoren (bin der Meinung das es auch mal was von Google gab). Dank der Krankheit, die ich immer vergesse, kommt mir grad nicht in den Sinn wo ich das gelesen hab und wie die URLs waren. Aber die Gedächtnisstütze Google hilft bei Bedarf da bestimmt weiter

So long
Holger
danke!
gibt es eine möglichkeit, sich seine eigene website mit den "augen" eines robots anzusehen?
gruss, V.
gibt es eine möglichkeit, sich seine eigene website mit den "augen" eines robots anzusehen?
gruss, V.
Si non confectus, non reficiat. (Motto der Vetinaris)
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
Wie bereits erwähnt bin ich der Meinung so etwas mal gelesen zu haben. Allerdings solltest Du danach mal explizit suchen. Leider werden Suchmaschinenbetreiber sich nie wirklich in die Karten schauen lassen, aber grundsätzliche Dinge wie das Crawlen kann man sicherlich testen lassen. Wie dann das Scoring läuft ist eine Wissenschaft für sich und das womit die großen auch Geld machen 
Von daher: Google is your friend(ly backup storage).
So long
Holger

Von daher: Google is your friend(ly backup storage).
So long
Holger
ok, werd mal sehen, was ich machen kann.
apropos barrierefreiheit: der komplette admin-bereich von contenido funktioniert ja ohne eingeschaltetes javascript überhaupt nicht!
gruss, V.

apropos barrierefreiheit: der komplette admin-bereich von contenido funktioniert ja ohne eingeschaltetes javascript überhaupt nicht!
gruss, V.
Si non confectus, non reficiat. (Motto der Vetinaris)
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
zunächst zu den spidern: die sehen die seite so, wie du sie auch siehst, wenn du dir den quellcode anschaust. das hat nur gar nichts mit dem system zu tun, das du verwendest. sondern lediglich mit der ausgabe, die du vornimmst.
und hinsichtlich der barrierefreiheit: das sollte wohl für die ausgabe bedeutend sein und weniger für die datenpflege. prinzipiell wäre das schon schön; allerdings bedeutet es auch einen verzicht von ajax. und das wäre für den komfort bei der datenpflege schon sehr schade.
und hinsichtlich der barrierefreiheit: das sollte wohl für die ausgabe bedeutend sein und weniger für die datenpflege. prinzipiell wäre das schon schön; allerdings bedeutet es auch einen verzicht von ajax. und das wäre für den komfort bei der datenpflege schon sehr schade.
aitsu.org :: schnell - flexibel - komfortabel :: Version 2.2.0 (since June 22, 2011) (jetzt mit dual license GPL/kommerziell)
Hi kummer.
Ich glaube die Frage zielte eher auf das Crawling-Verhalten der Bots für die Site ab. Da liegt oft der Teufel im Detail.
Was die Sache mit Ajax angeht: Ajax sollte in sinnhaften Anwendungen als nettes Gimmick fungieren, die Grundfunktionalität muss aber trotz allem gewährleistet sein. Es mag hier sinnvolle Ausnahmen geben, aber alles in allem ergänzt JS und anderes Scripting nur die Seiten - zumindest meiner Meinung nach
So long
Holger
Ich glaube die Frage zielte eher auf das Crawling-Verhalten der Bots für die Site ab. Da liegt oft der Teufel im Detail.
Was die Sache mit Ajax angeht: Ajax sollte in sinnhaften Anwendungen als nettes Gimmick fungieren, die Grundfunktionalität muss aber trotz allem gewährleistet sein. Es mag hier sinnvolle Ausnahmen geben, aber alles in allem ergänzt JS und anderes Scripting nur die Seiten - zumindest meiner Meinung nach

So long
Holger
zwei leute, eine meinung. allerdings haben wir im backend die situation, dass wir mit einer vielzahl von daten konfrontiert sind, die die bearbeitung in der zwischenzeit - je nach grösse der site - schon langsam machen. hier kann ajax mehr, als nur als gimmick dienen. da kann es durchaus auch einen einfluss auf die performance haben.holger.librenz_4fb hat geschrieben:Was die Sache mit Ajax angeht: Ajax sollte in sinnhaften Anwendungen als nettes Gimmick fungieren, die Grundfunktionalität muss aber trotz allem gewährleistet sein. Es mag hier sinnvolle Ausnahmen geben, aber alles in allem ergänzt JS und anderes Scripting nur die Seiten - zumindest meiner Meinung nach
aitsu.org :: schnell - flexibel - komfortabel :: Version 2.2.0 (since June 22, 2011) (jetzt mit dual license GPL/kommerziell)