concache zum Cachen der Frontendausgabe

jost
Beiträge: 322
Registriert: Mo 10. Jan 2005, 20:12
Kontaktdaten:

Beitrag von jost » So 9. Jul 2006, 10:54

Code: Alles auswählen

/**
* compose debuginfo (hit/miss and execution time of caching)
* @var bool  $cfgConCache['debug']
*/
$cfgConCache['debug'] = false;
So, jetzt geht es. :P

flom
Beiträge: 38
Registriert: Di 24. Okt 2006, 10:13
Kontaktdaten:

Beitrag von flom » Sa 28. Okt 2006, 15:53

bei mir ist das ergebnis eher bescheiden: 1 sekunde statt vorher 2 sekunden. immerhin aber ich hatte mir mehr erwartet. getestet mit http://www.iwebtool.com/speed_test . oder ist das ergebnis nicht reell? mir kommt die seite auch so nicht besonders schnell vor. bin bei 1und1.

stese
Beiträge: 1040
Registriert: Fr 3. Dez 2004, 17:47
Wohnort: München
Kontaktdaten:

Beitrag von stese » Sa 28. Okt 2006, 16:55

bei 1und1 is eh hopfen und malz verloren - solange die db langsam ist, is wirklich alles langsam - da kann eine cache engine nur bedingt abhilfe schaffen, denn sobald irgendwo ne db-verbindung aufgebaut wird (und zwar ist das der fall bei den statistiken in diesem script) und die db ist lahm, bremst das alles aus. such dir am besten nen ordentlichen hoster. oder nen root bzw managed server wo du dir die dbs nicht teilen musst.

du kannst probieren die cache engine zu beschleunigen, indem du die beiden statistikverbindungen rausnimmst, dann werden die seiten aber nicht mehr contenido intern gezählt

flom
Beiträge: 38
Registriert: Di 24. Okt 2006, 10:13
Kontaktdaten:

Beitrag von flom » Sa 28. Okt 2006, 19:06

stese danke für die info. da ich bereits durch 1und1 sowie google statistiken habe würde ich das gerne austesten. welche bereiche sind das mit der statistik?
abgesehen davon würde ich gerne auf einen solchen managed server zurückgreifen, da 1und1 nach mehrmaliger aufforderung immer noch nicht die DB in den griff bekommen hat. sind die managed server bei 1und1 denn ok? oder gibts da wieder ärger?

falls sie ok sind: bei derzeit ca 16.000 besuchern in nem OSC online shop sowie einem contenido mit läppischen 300 besuchern pro monat dürfte ein L64 reichen oder?

der hat:
AMD Athlon 64 3000+
1.024 MB DDR-RAM
2 x 80 GB Festplatte (RAID1)
5 Domains

vielen dank für die (hoffentlich weitergehende :lol:) hilfe

stese
Beiträge: 1040
Registriert: Fr 3. Dez 2004, 17:47
Wohnort: München
Kontaktdaten:

Beitrag von stese » Sa 28. Okt 2006, 19:26

probiere in der cms/includes/concache.php folgende setting:

Code: Alles auswählen

$cfgConCache['raiseonevent'] = array(
    'beforeoutput' => array('/* some code here */'), 
    'afteroutput'  => array($sStatCode, 'page_close();')
);
mal so zu schreiben

Code: Alles auswählen

$cfgConCache['raiseonevent'] = array(
    'beforeoutput' => array('/* some code here */'), 
    'afteroutput'  => array('/* nothing */')
);
vielleicht bringts was - wenn aber darüber hinaus noch eine db verbindung aufgebaut wird (kann das script jetzt nicht genau auswendig) wird das nicht helfen.

der server sollte reichen. und solange du wie gesagt allein bist und dir den server nicht mit hunderten bzw tausenden anderen teilen musst, ist alles besser als der derzeitige stand

flom
Beiträge: 38
Registriert: Di 24. Okt 2006, 10:13
Kontaktdaten:

Beitrag von flom » Sa 28. Okt 2006, 19:56

ok danke. bestelle den server gerade ;)

flom
Beiträge: 38
Registriert: Di 24. Okt 2006, 10:13
Kontaktdaten:

Beitrag von flom » Fr 3. Nov 2006, 09:09

wahnsinnig schnell seit dem managed server L64... kann ich nur empfehlen!
http://www.muenkel.eu.

dampfradio
Beiträge: 62
Registriert: Do 2. Jun 2005, 09:41
Wohnort: BaWü
Kontaktdaten:

Beitrag von dampfradio » Do 21. Jun 2007, 15:11

Danke xmurrix!

Habe meine Seite mit Hilfe des Caches von 6,2 auf 1,2 sek. "getuned".
Das ist beachtlich..

codefux
Beiträge: 25
Registriert: Fr 6. Apr 2007, 15:38
Wohnort: München
Kontaktdaten:

Frage an stese

Beitrag von codefux » Mi 29. Aug 2007, 20:10

Hallo,

sind die hier beschriebenen Cache-Anpassungen im aktuellen Bundle contenido-4.6.15mr_070112 integriert?
Konnte im Changelog nichts darüber finden...
What happens on the island, stays on the island ;-)
|| codefux.de ||
|| Advanced ModRewrite mit Windows IIS ||

HerrB
Beiträge: 6935
Registriert: Do 22. Mai 2003, 12:44
Wohnort: Berlin
Kontaktdaten:

Beitrag von HerrB » Do 30. Aug 2007, 16:35

Nein.

Gruß
HerrB
Bitte keine unaufgeforderten PMs oder E-Mails -> use da Forum!

Newsletter: V4.4.x | V4.6.0-15 (Module, Backend) | V4.6.22+
Standardartikelliste: V4.4.x | V4.6.x
http://www.contenido.org/forum/search.php | http://faq.contenido.org | http://www.communido.net

JochBec
Beiträge: 54
Registriert: Sa 18. Dez 2004, 15:11
Kontaktdaten:

Ganzes Verzeichnis nicht cachen

Beitrag von JochBec » So 13. Jan 2008, 17:50

Moin ;)

Erstmal vielen Dank für das klasse Modul, funktioniert bei mir super!

Zwei Dinge krieg ich aber nicht hin:

Wie kann ich ganze Verzeichnisse am cachen hindern? Dort liegen so viele Seiten, daß es unsinnig wäre alle ids einzeln einzugeben und zu blocken. Gibts da ne Möglichkeit? Statt idart eben die idcat zu blocken?


Danke und Gruß!
Zuletzt geändert von JochBec am Di 15. Jan 2008, 11:55, insgesamt 1-mal geändert.

JochBec
Beiträge: 54
Registriert: Sa 18. Dez 2004, 15:11
Kontaktdaten:

gelöst!

Beitrag von JochBec » Mo 14. Jan 2008, 09:31

Hallo -

Problem selber gelöst es geht indem man einfach aus der idart eine idcat macht. Der Code wäre also:

Code: Alles auswählen


	// check if current article shouldn't be cached (by stese)
		$sExcludeIdcats = getEffectiveSetting('cache', 'excludeidcats', false);
		if ($sExcludeIdcats && strlen($sExcludeIdcats)>0) {
			$sExcludeIdcats = preg_replace("/[^0-9,]/", '', $sExcludeIdcats);
			$aExcludeIdcat  = explode(',', $sExcludeIdcats);
			if (in_array($GLOBALS['idcat'], $aExcludeIdcat)) {
				$this->_bEnableCaching = false;
				return;
			}
		}
Zuletzt geändert von JochBec am Di 15. Jan 2008, 11:53, insgesamt 1-mal geändert.

apicalart
Beiträge: 161
Registriert: Fr 18. Mär 2005, 13:09
Wohnort: Linnich ( NRW )
Kontaktdaten:

Prima Geschichte

Beitrag von apicalart » Di 15. Jan 2008, 11:27

Kompliment an die Beteiligten. Auch bei uns ist eine enorme Steigerung drin gewesen.

Hat einer eine Ahnung, ob denn etracker oder google analytics durch den Cache gestört wird?
Dat gijjt et doch nit wirklich, odder !

Grüsse aus dem Rheinland
http://www.eukoba.de

xmurrix
Beiträge: 3147
Registriert: Do 21. Okt 2004, 11:08
Wohnort: Augsburg
Kontaktdaten:

Re: Prima Geschichte

Beitrag von xmurrix » Sa 16. Feb 2008, 15:38

Hallo apicalart,
apicalart hat geschrieben:Hat einer eine Ahnung, ob denn etracker oder google analytics durch den Cache gestört wird?
das Caching sollte sich nicht auf auf das Tracking auswirken, das per JavaScript oder Trackingimages beim Client stattfindet. Eine gecachte Version der Seite enthält weiterhin den Code für etracker, Google Analytics und Co. und daher wird jeder Besuch und jeder Seitenaufruf - wenn möglich - protokolliert.

Gruß
xmurrix

Gesperrt