robots und keywords

Gesperrt
Vetinari
Beiträge: 136
Registriert: Sa 31. Mär 2007, 19:11
Wohnort: Fulda
Kontaktdaten:

robots und keywords

Beitrag von Vetinari »

hallo,

bin gerade dabei meine site für google zu optimieren und frage mich, wie so ein spider/robot genau arbeitet, d.h. was er wirklich findet.
der spider durchsucht doch den quelltext einer seite, oder? findet er dann auch meine contenido hauptmenüpunkte?
falls er sie nicht finden sollte, macht es natürlich keinen sinn, diese als keywords dem artikel hinzuzufügen ...

gruss, V.
Si non confectus, non reficiat. (Motto der Vetinaris)
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
holger.librenz_4fb

Beitrag von holger.librenz_4fb »

Vetinari
Beiträge: 136
Registriert: Sa 31. Mär 2007, 19:11
Wohnort: Fulda
Kontaktdaten:

Beitrag von Vetinari »

das liebe ich an diesen foren so - dass man immer ungefragt google such-links geschickt bekommt :wink:

als würden alle davon ausgehen, dass man selbst noch nicht weiß wie man eine websuche durchführt ...

also nochmal: meine frage lautet: ist contenido so programmiert, dass der spider beim durchsuchen eines artikels (scripts) auch die hauptmenüpunkte findet, oder nicht?
es geht mir um den keyword-match. wenn ich die menüpunkte als keywords in den artikel-eigenschaften hinterlege, muss der spider diese auch als text erkannt haben, sonst hat das ganze ja keinen sinn ...

gruss, V.
Si non confectus, non reficiat. (Motto der Vetinaris)
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
holger.librenz_4fb

Beitrag von holger.librenz_4fb »

Hi

Die Links sind öfter angebracht als Du glaubst, weil schlichtweg so gut wie niemand einfach mal die Suche bemüht. Daher sind Hinweise auf Google und die Forensuche mehr als angebracht.

Zu Deiner Frage: Contenido hat nur sehr peripher mit der Suchmaschinentauglichkeit zu tun. Die Meta-Tags können abhängig vom Artikel gesetzt werden und werden dann auch als solche in den Seiten berücksichtigt. Der Rest ist schlichtweg Arbeit für den Entwickler. Dieser entscheidet ob das Layout validierend implementiert ist, ob die Module suchmaschinentaugliche Ausgaben machen und und und. Das ist ja eben der Vorteil von Contenido, das man die völlige Freiheit hat. Wer eine JavaScript-only Menülösung implementiert und einsetzt wird sein blaues Wunder erleben, wenn er versucht bei Sucherergebnissen weiter oben anzukommen. Es gibt übrigens verschiedene Tools, die den SEO-Status einer Seite scoren (bin der Meinung das es auch mal was von Google gab). Dank der Krankheit, die ich immer vergesse, kommt mir grad nicht in den Sinn wo ich das gelesen hab und wie die URLs waren. Aber die Gedächtnisstütze Google hilft bei Bedarf da bestimmt weiter :)

So long
Holger
Vetinari
Beiträge: 136
Registriert: Sa 31. Mär 2007, 19:11
Wohnort: Fulda
Kontaktdaten:

Beitrag von Vetinari »

danke!
gibt es eine möglichkeit, sich seine eigene website mit den "augen" eines robots anzusehen?

gruss, V.
Si non confectus, non reficiat. (Motto der Vetinaris)
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
holger.librenz_4fb

Beitrag von holger.librenz_4fb »

Wie bereits erwähnt bin ich der Meinung so etwas mal gelesen zu haben. Allerdings solltest Du danach mal explizit suchen. Leider werden Suchmaschinenbetreiber sich nie wirklich in die Karten schauen lassen, aber grundsätzliche Dinge wie das Crawlen kann man sicherlich testen lassen. Wie dann das Scoring läuft ist eine Wissenschaft für sich und das womit die großen auch Geld machen :)

Von daher: Google is your friend(ly backup storage).

So long
Holger
Vetinari
Beiträge: 136
Registriert: Sa 31. Mär 2007, 19:11
Wohnort: Fulda
Kontaktdaten:

Beitrag von Vetinari »

Si non confectus, non reficiat. (Motto der Vetinaris)
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
holger.librenz_4fb

Beitrag von holger.librenz_4fb »

Yepp, WebEye und Poodle sind mir n Begriff. Habe ich allerdings noch nie persönlich getestet. Also wenn Du Lust hast, würden wir uns über ein paar Erfahrungswerte freuen.

So long
Holger
Vetinari
Beiträge: 136
Registriert: Sa 31. Mär 2007, 19:11
Wohnort: Fulda
Kontaktdaten:

Beitrag von Vetinari »

ok, werd mal sehen, was ich machen kann. :wink:

apropos barrierefreiheit: der komplette admin-bereich von contenido funktioniert ja ohne eingeschaltetes javascript überhaupt nicht!

gruss, V.
Si non confectus, non reficiat. (Motto der Vetinaris)
Solange etwas nicht kaputt ist, repariere es nicht.
oder:
Lass die Dinge einfach laufen, die meisten Probleme erledigen sich eh von selbst.
holger.librenz_4fb

Beitrag von holger.librenz_4fb »

Yepp, das Backend ist da leider noch eine Ausnahme. Momentan werden wir leider noch ein wenig damit leben müssen, aber auf lange Sicht wird sich auch da etwas tun müssen.

So long
Holger
kummer
Beiträge: 2423
Registriert: Do 6. Mai 2004, 09:17
Wohnort: Bern, Schweiz
Kontaktdaten:

Beitrag von kummer »

zunächst zu den spidern: die sehen die seite so, wie du sie auch siehst, wenn du dir den quellcode anschaust. das hat nur gar nichts mit dem system zu tun, das du verwendest. sondern lediglich mit der ausgabe, die du vornimmst.

und hinsichtlich der barrierefreiheit: das sollte wohl für die ausgabe bedeutend sein und weniger für die datenpflege. prinzipiell wäre das schon schön; allerdings bedeutet es auch einen verzicht von ajax. und das wäre für den komfort bei der datenpflege schon sehr schade.
aitsu.org :: schnell - flexibel - komfortabel :: Version 2.2.0 (since June 22, 2011) (jetzt mit dual license GPL/kommerziell)
holger.librenz_4fb

Beitrag von holger.librenz_4fb »

Hi kummer.

Ich glaube die Frage zielte eher auf das Crawling-Verhalten der Bots für die Site ab. Da liegt oft der Teufel im Detail.

Was die Sache mit Ajax angeht: Ajax sollte in sinnhaften Anwendungen als nettes Gimmick fungieren, die Grundfunktionalität muss aber trotz allem gewährleistet sein. Es mag hier sinnvolle Ausnahmen geben, aber alles in allem ergänzt JS und anderes Scripting nur die Seiten - zumindest meiner Meinung nach :)

So long
Holger
kummer
Beiträge: 2423
Registriert: Do 6. Mai 2004, 09:17
Wohnort: Bern, Schweiz
Kontaktdaten:

Beitrag von kummer »

holger.librenz_4fb hat geschrieben:Was die Sache mit Ajax angeht: Ajax sollte in sinnhaften Anwendungen als nettes Gimmick fungieren, die Grundfunktionalität muss aber trotz allem gewährleistet sein. Es mag hier sinnvolle Ausnahmen geben, aber alles in allem ergänzt JS und anderes Scripting nur die Seiten - zumindest meiner Meinung nach :)
zwei leute, eine meinung. allerdings haben wir im backend die situation, dass wir mit einer vielzahl von daten konfrontiert sind, die die bearbeitung in der zwischenzeit - je nach grösse der site - schon langsam machen. hier kann ajax mehr, als nur als gimmick dienen. da kann es durchaus auch einen einfluss auf die performance haben.
aitsu.org :: schnell - flexibel - komfortabel :: Version 2.2.0 (since June 22, 2011) (jetzt mit dual license GPL/kommerziell)
Gesperrt