Firefox 3 et support des protocoles SSL avec apache

Firefox 3 a une implementation SSL differente qui rencontre un bug des librairies SSL utilisées avec Apache. Le symptome est le suivant : “SSL a reçu un enregistrement « Change Cipher Spec » inattendu.”
La solution consiste à ajouter le parametre suivant à la configuration d’apache :
SSLProtocol all -TLSv1 -SSLv2

Identifier avec tomcat 5.5 la source d’une erreur 404, 503

Avant tomcat 5.5, les pages d’erreurs (404,503…) pouvaient connaitre l’URL choisie par l’utilisateur au travers d’un classique request.getRequestURL() ; depuis la 5.5, il faut travailler autrement, en effet, l’instruction précédente renverra le nom de la page d’erreur.
Il est donc maintenant nécessaire de passer par un attribut qui conserve cette information en utilisant la commande suivante : (String) request.getAttribute(“javax.servlet.error.request_uri”);

Performance d’un hebergement en datacenter comparé à l’adsl

Durant tres longtemps j’ai été mon propre hebergeur ayant besoin de machines dédiées la solution d’hebergement à la maison etait plus rentable et permettait un meilleur control. Cette année je fais le pas et migre sur un serveur dédié sous la forme d’un RPS. Dans un autre article vous trouverez des information sur la performance du serveur en lui même, mais ici je souhaite aborder la performance perçue de mes utilisateurs.

J’ai donc realisé quelques tests basique pour voir le gain à attendre. En terme de spec, pour situer, la machine OVH est moins performante par contre le reseau n’a rien à voir : 100Mb pour OVH contre 1Mb pour mon adsl sur l’upload.
Le premier test est le chargement d’une page simple, sans la moindre donnée dedans (0 octets). Le résultat est obtenu avec woozweb qui mesure les temps de reponse. Il est sans appel, le temps moyen de chargement sur l’adsl est de 0.49s en moyenne contre 0,01s sur le RPS

Performance des RPS ovh

Je viens de m’offrir un serveur privé chez OVH, un RPS. Cela semble de jolies machine pour un cout très modeste (25€ / mois environ). Seul hic, la perf du disque qui est mutualisé dans un NAS et ne garantit que 1 Mo/s dans la version que j’ai. Après c’est plus cher. D’où la question … à quoi correspondent vraiment ses 1Mo. Du coup je lui ait appliqué mes tests habituels, dont je vous livre les résultats.

  • hdparm -t /dev/sda1 : donne 2.8Mo /s ce qui est plutôt bon puisque 1Mo/s sont promis
  • seeker donne 11 seeks/s avec un temps d’accès de 86.46ms. On a ici un debit de 44 Ko / s
  • hdparm -t /dev/sda1 : donne 523Mo /s
  • bonnie++ : write (seq char / bloc / rewrite ) – 11M – 11M – 1.8M || read (seq char / bloc ) – 2M – 2M

Les premiers éléments de performance valent grosso modo ceux d’une clef USB 1.0, autant dire que ce n’est pas l’extase. Les performance obtenues avec Bonnie sont de l’ordre du disque USB ou disque reseau NFS sur 100Mbs. Grosso-modo 3 fois moindre qu’un disque interne.
En tout cas, pour mysql, je pense qu’un gros cache est nécessaire ! A suivre avec des tests plus fonctionnels et moins technique ; a noter aussi que la QoS mise en place sur les I/O offre une certaine souplesse puisque les mesures faites ne sont pas systématiquement bloquées à 1Mo/s et tant mieux !

Coté performance calcul le résultat de lmbench est le suivant:

Process | null call / null IO / open-close / slct TCP / fork / exec prog / sh prog | 0,09 / 0,35 / 3.18 / 11.8 / 191 / 654 / 2649
Integer | calculs bits / addition / mult/ div / modulo | 0,48 / 0,48 / 0.19 / 20.5 / 19.6
Float | calculs addition / mult/ div / bogo | 1.9 / 1.9 / 8.4 / 7.63
Latency | context switch / AF UNIX / UDP / TCP / TCP-CON | 2.3 / 7.79 / 20.4 / 25.2 / 80

Ok … c’est barbare, mais il faut le comparer à d’autres tests fait. Globalement, je dirai que la machine est correct, sans plus, pas tres bonne en réseau ni en addition par rapport à mon epia 1.8G, mon P4 ou mon athlon 1.5G ; certe l’outil de bench n’utilise pas le dual core. Par contre la machine est performante en floatant et en mult / div entiere. Bref, correct et suffisant pour mon usage.
voir ici pour les autres tests faits.

Mon pense bête Ubuntu

Petite liste de commandes à ne pas oublier lorsque l’on part d’un RPS vierge. (A partir d’un UBUNTU serveur) … snif, ils n’ont pas de suse.

  • apt-get update
  • apt-get install synaptic
  • apt-get install update-manager
  • dans synaptic, ajouter les repo third party puis installer tomcat5 et java (a voir)
  • apt-get install apache2 mysql-server php5 libapache2-mod-php5 php5-mysql
  • mettre a jour les paquets en lançant update-manager -c

Quelques notions Oracle

En ce moment, je bricole pas mal avec Oracle pour chercher pourquoi certaines de nos applications rament … D’où l’envie de mettre quelques informations sur les principaux point à regarder. Cet article n’a pas de vocation exhaustive mais ce sont plutôt quelques notes sur un coin de table…

Oracle est une base possédant un énorme moteur d’optimisation de requêtes, sans doute très fort pour le traitement massif de données, cependant, le moindre grain de sable transforme immédiatement votre Ferrarie en une 2CV. Au premier rang des grains de sable se trouvent les statistiques. Il s’agit d’une donnée Oracle indiquant le nombre de lignes que la table doit contenir. Fonction de ce nombre, l’optimiseur choisira une methode de recherche des données dans une table plutôt qu’une autre. Il pourra utiliser des INDEX ou des CLEFS ou choisir de faire un FULL SCAN (essayer les lignes une à une). S’il se trompe… c’est la cata. Le premier point est donc de vérifier ces stats en consultant le nombre de ligne qu’ORACLE pense avoir dans “all_tables” et le comparer aux nombre de lignes reellement dans la table count(*).
Ceci étant dit, je n’ai pas dit grand chose car il est avant nécessaire d’identifier quelles sont les tables concernées, ceci peut se faire de 2 façons, la première, lorsque le temps de réponse est catastrophique, consiste à regarder les session actives et visualiser le sql en cours de traitement. Ceci se fait facilement avec des outils comme TOAD ou DbVisualizer.
La requête peut aussi être identifiée à l’aide du stat_pack oracle. Cet outil permet de mémoriser l’état de la SGA avant et après un traitement puis de faire une comparaison de entre les deux images. Cet outil permet alors de savoir quelles sont les requêtes qui ont consommées le plus de temps, quelle est l’utilisation de la SGA ou de la PGA … Bref … une fois la requête identifiée, il est possible de demander à Oracle un Explain plan qui indiquera quels est la complexité de la requête et par quelles méthode les données sont recherchées (full scan, index…)
Il est alors possible d’identifier les problèmes. Il faut identifier s’il existe un index qui pourrait être utilisé et qui ne l’est pas par exemple ou s’il faudrait créer un nouvel index. Dans le premier cas, il est possible que les stats ne soient pas bonnes car si oracle préfère un fullscan à un index, c’est sans doute qu’il croit que la table ne contient que très peu de lignes.
Si tout semble normal de ce point de vue, il arrive que les index aient besoin d’être rebuildés : il se peu que les arbre binaires associés soient déséquilibrés, que le nombre de niveau devienne trop grand et que son utilisation ne soit pas efficace. Un rebuild peut résoudre cela. Il est aussi possible, à l’aide de Hints de forcer Oracle à utiliser un index donné. Mais ceci n’est valable que lorsque vous avez accès aux sources de l’application.
On peut enfin penser à faire un reset de la High Water Mark sur une table donnée si vraiment on constate des soucis sur cette table alors que tout le reste est ok.

Avant de vraiment s’attaquer à tout cela, il peut être utile de jeter un oeil aux estimations que donne le stat pack sur la taille des SGA, PGA et Shared Pool car des espaces mémoire trop réduits vont fortement pénaliser Oracle qui devra faire trop d’accès aux disques. Dans le même esprit, il faut jeter un oeil aux taille des redo-log qui peuvent conduire à des fréquences d’I/O trop élevées dans les système de type batch.

Bon courage avec toutes ces notions et idées un peu en vrac … il y a ici surtout des mots clefs pour chercher ensuite sur google. A l’occasion, je mettrai des information plus opérationnelles, promis !

Recalcul d’index dans une base Oracle

Deux petits scripts permettant le recalcul des index d’une base oracle lorsque ceux-ci ont l’air louche … Les scripts sont à passer l’un après l’autre sur la base

--- AnalyseIndex.sql
set pages 9999;
set heading off;
set feedback off;
set echo off;
set linesize 255;

spool step1.sql;
select 'drop table system.temp_stats_paul;' from dual;
select 'create table system.temp_stats_paul as select name, most_repeated_key, distinct_keys, del_lf_rows, height, blks_gets_per_access, lf_rows from index_stats;' from dual;

select 'analyze index '||owner||'.'||index_name||' validate structure;',
'insert into system.temp_stats_paul ( select name, most_repeated_key, distinct_keys, del_lf_rows, height, blks_gets_per_access, lf_rows from index_stats where height > 3 or ( 100 * del_lf_rows / (lf_rows+1) ) > 20 or BLKS_GETS_PER_ACCESS > 5 );'
from dba_indexes
where
owner not in ('SYS','SYSTEM');

spool off;
set heading on;
set feedback on;
set echo on;

@step1.sql
quit
--- RebuildIndex.sql
set pages 9999;
set heading off;
set feedback off;
set echo off;
set linesize 255;

spool step2.sql;

select 'alter index '||owner||'.'||name||' rebuild tablespace '||tablespace_name||';'
from system.temp_stats_paul, dba_indexes
where system.temp_stats_paul.name = dba_indexes.index_name;

spool off;

drop table system.temp_stats_paul;

set heading on;
set feedback on;
set echo on;

@step2.sql
quit