Pfad beschneiden

Gesperrt
peanut
Beiträge: 247
Registriert: Do 25. Nov 2004, 19:34
Kontaktdaten:

Pfad beschneiden

Beitrag von peanut »

Hallo zusammen

Ich habe folgendes Problem. Contenido Version 4.6.8

Google hat meine Seiten irgendwie alle mit der Endung ?Displaylimit=verschiedene_Zahlen_hier also so:

http://www.domain.tld/kategorie/artikel ... limit=Zahl

im Index und viele sehen dadurch leere Artikellisten da es manchmal einfach nicht so viele Artikel in einer Kategorie gibt ich aber mehrere Artikellisten auf einer Seite habe ( ohne weiter und zurück ) . Meine Frage nun - kann man irgendwie diese Endung in der .htaccess zum Beispiel rauswerfen/unterdrücken d.h. wenn ein User auf solch einen Link klickt das er auf den originalen Pfad kommt nur eben ohne dieses ?Displaylimit=1000 am Ende ?

also etwa so hehe ( prügelt mich nicht alle auf einmal )

if found "?Displaylimit=*" then goto same path only without "?Displaylimit=*" :-)


Danke für eure Hilfe
Gruss
Peanut
du liest nie ein Buch und weisst weise der Bildung auszuweichen ....
emergence
Beiträge: 10653
Registriert: Mo 28. Jul 2003, 12:49
Wohnort: Austria
Kontaktdaten:

Beitrag von emergence »

hmm...

*snip
Die Erweiterungen für Google

Google bietet über die auf robotstxt.org festgelegten Standards noch einige Erweiterungen. So erkennt der Googlebot auch einfache Muster beim Disallow-Befehl. Um beispielsweise zu verhindern, dass der Googlebot auf dem Server vorhandene php-Dateien indexiert, geben Sie ein:

User-agent: Googlebot
Disallow: *.php$

Die Suchmuster für den Googlebot dürfen als Platzhalter den * für beliebige Zeilen und ein $ für das Ende des Suchstrings enthalten. Obiges Beispiel schließt also alle Dateien aus, die auf "php" enden. Sollen alle dynamisch erzeugten Inhalte einer Site außen vor bleiben, empfiehlt Google

User-agent: Googlebot
Disallow: /*?

Dieses Muster passt auf alle URLs, die ein Fragezeichen enthalten - das Zeichen, auf das in der Regel die für dynamische Seiten typischen Parameter folgen.
*snip

d.h eigentlich müsste das möglich sein

in der robots.txt etwas wie das hier reinsetzen, sollte in zukunft verhindern das diese seiten indiziert werden und somit dein problem lösen

Code: Alles auswählen

User-agent: Googlebot
Disallow: /*Displaylimit=$ 
*** make your own tools (wishlist :: thx)
peanut
Beiträge: 247
Registriert: Do 25. Nov 2004, 19:34
Kontaktdaten:

Beitrag von peanut »

Super - Danke Emergence

Ich denke das dein Ansatz das Problem bei der Wurzel packt - Muss ich doch gleich mal ausprobieren :D Ich melde mich hier wieder sobald ich was weiss ( sollte schnell gehen )
du liest nie ein Buch und weisst weise der Bildung auszuweichen ....
Gesperrt