Nokia 9300i – premières impressions

L’objectif de mon achat etait de trouver un tout en un : un appareil capable de remplacer confortablement mon pda, mon téléphone, ma montre, mon lecteur MP3 et me permettant en outre d’accéder à Internet directement depuis le téléphone ou depuis mon PC en utilisant le modem 3G intégré.

Revenons sur ces points : pour ce qui est de l’Internet, que ce soit sur le téléphone ou depuis mon ordinateur portable c’est franchement super. Le rendu des pages est parfait, c’est assez rapide, simple d’utilisation. Seul hic là dessus l’espece de chose que l’on oserait pas appeler un glide point et qui glisse sous le pouce !!! une horreur !! c’est simple la navigation entre liens et formulaires est plus rapide en utilisant la touche TAB. J’ai bien envi de coller un truc dessus pour le rendre adhérent, toutefois, j’ai bien peur de ne plus arriver à fermer l’appareil au cas échéant. Enfin, là dessus tout va bien.
Le téléphone est Wifi/gprs/edge .. parfait pour la connexion en tous lieux, y compris à la maison. Le système de liaison bluetouth entre le téléphone et le pc est parfait pour se connecter au modem sans avoir à sortir l’appareil… Je suis comblé sur cette fonctionnalité, si ce n’est que sa configuration sous Linux n’a pas l’air très simple. A voir.

Pour les autres fonctionnalités, ca se complique un peu. Il faut bien comprendre que parce qu’il a un clavier (ce qui est simplement génial), l’appareil est enorme !! son utilisation requiert donc de ne pas le sortir du fond d’une poche de blouson sans quoi c’est la cata. Ce qui veut dire utilisation de bluetouth et autre …
Coté lecteur MP3, pour ma part je suis deçu par le lecteur interne dont le mode aleatoire a l’air de reprendre les chanson toujours dans le meme ordre ce qui demande de la mettre en pause entre 2 usage. ce lecteur n’est pilotable que depuis le clavier ce qui demande d’ouvrir le clapé, déverrouille et activer le lecteur, ce qui n’est pas pratique alors que le bouton “decrocher” du casque pourrait très bien servir de play/pause. Par ailleurs le système ne gère qu’un casque, du coup il faut brancher débrancher le casque pour passer en mode oreillette bluetooth, c’est chiant, alors que si le bluetooth était prioritaire, ca resoudrait le probleme (hors c’est le casque qui est prioritaire) balo.. Bref en mp3 c’est bien mais pas top.

Coté Agenda … le system inclus est bien, avec le clavier c’est royal. Coté synchro je suis super deçu car seul Outlook et Notes sont supporté, pour ma part je n’ai ni l’un ni l’autre et suis donc coincé. Il n’y a même pas moyen de faire un export sous forme d’un fichier standard. Par aileurs, il me semble qu’un petit outil, même de pietre qualité pourrait être fourni par nokia, comme le fait Palm. Et ca franchement ca manque . il n’y a pas de cohérence entre les outils (contact, agenda…) c’est moyen.

Coté montre, je trouve que le contraste de l’heure est nul lorsque la veille est desactivé, du coup je suis obligé d’ouvrir l’appreil, par ailleurs il faut le sortir .. c’est moyen, mais franchement accessoire.

Ensuite, il existe la fonction SMS depuis le PC, autant le SMS avce le tel et le clavier sont vraiment bien, autant depuis le PC… et bien pour moi ca ne marche simplement pas. Un bug sans doute .. mais un bug génant. Il existe des tas de forums, même certains sur ceux du site de nokia qui abordent le problème ; j’ai pu constaté que nokia se contre fiche des problèmes de ses utilisateurs en ne participant pas aux sujets abordés, ils ne repondent pa snon plus aux demandes de support.. Vu le prix des appareil c’est honteux.

L’utilisation en temps que “clef USB” est plutot pas mal, supportant USB, Bluetooth, Irda, il sera toujours possible de transferer des fichiers. Par contre il faut etre patient, IRDA et Bluetooth sont plutot lent (normal), l’usb sera a retesté pour moi mais je dirai que je n’ai pas été convaincu non plus. Pratique mais pas ultime donc.

Suis-je au final satisfait de l’appareil ? je dirai que oui, il ne répond pas à tout ce que je souhaiterai mais bon, je vais faire avec. Je serai sans doute très heureux d’en changer dès que l’offre de téléphone avec clavier va s’etoffer car c’est bien là le plus qui permet de supporter tout le reste.
A si .. ya un truc insuportable !! quel est le con qui fabrique un téléphone de cette taille sans y ajouter un vibreur !! on est en 2007 quand même !! faites gaffe car certains site comme Bouygues indique vibreur … et bien NON NON et NON il n’y en a pas ! La solution : n’écoutez pas le vendeur de la Fnac : les oreillettes bluetooth avec vibreur ca existe ! (par contre c’est rare)
Pour ajouter quelques points que je n’ai pas commentés :
Les moins : une offre logicielle réduite et généralement payante, peu d’utilisateurs et donc peu de conseils utiles, le paramétrage très restreint de l’appareil et surtout de l’OS, la compatibilité Mac a l’air très moyenne, le lock qui vous oblige a taper un mot de passe… et si l’on met pas le lock manuel, le téléphone numérote tout seul !
Les plus : la posibilité de faire du ssh depuis le téléphone, l’ecran, le son, le mode call conf, l’autonomie …

Ahhh, l’offshore !

L’Offshore est de plus en plus présent, avec ses tarifs alléchants et son coté exotique ; ceci est un fait ! Cependant, l’informatique n’est pas une industrie manufacturière et bien que certains entendent la délocaliser pour réaliser de substantielles économies, il ne semble pas évident que celles-ci soient aussi simplement réalisables.
En parallèle de cela la question de la formation en Europe se pose : nous formons des informaticiens à un métier presque exclusivement technique, métier qu’ils n’auront que peu le temps d’exercer pour basculer au plus vite dans des domaines fonctionnels aux antipodes de leur formation.

Qu’est-ce que l’Offshore aujourd’hui : c’est avant tout la délégation de tâches de réalisation de programmes informatiques (développement). Ces développements sont effectués en Asie (principalement en Inde) où le coût d’un informaticien à la journée tourne autour des 80 euros ; soit 5 à 10 fois moins que son homologue Européen. Mais voila, avec ces bas coûts viennent se greffer les milliers de raisons qui les justifies et qui viennent impacter très fortement le budget global d’un projet : distance, différence de langue, différence d’horaire, différence de façon de travailler, de culture .. et surtout un turn-over extra-ordinaire qui réduit à néant tous vos efforts de formations ou de partage de nouvelles méthodes de travail comme toutes capitalisations liée à la réalisation de projets successifs dans un même contexte. En effet, avec un salaire de quelques centaines d’euros par mois, pour 10 euros de plus vous partiriez n’importe où d’autant que l’on recrute à grand coup d’affiches 4×3 dans les rues de Bombay.
La main d’oeuvre Indienne est certes réputée dans les domaines de l’informatique, je ne vais pas remettre en cause leur compétence, toutefois un ingénieur indien a un BAC+3, ce qui dans le domaine de l’informatique et particulièrement dans celui de la programmation objet représente une grosse différence.
Bref, actuellement l’offshore n’est actuellement valable que pour des projets où la part de développement est suffisante pour que les bas coûts, impactés par l’augmentation de la complexité, restent rentables. De très gros projets donc.

Ma réflexion n’est pas vraiment de vous convaincre que l’offshore n’est pas rentable d’autant qu’il doit l’être puisque de plus en plus de monde s’y met. Il s’agit plutôt de se demander pourquoi nous ne sommes pas compétitifs en Europe alors que nous devrions avoir une productivité bien supérieure à celle de nos collègues indiens ?!?

L’informatique est une prestation intellectuelle, de ce que je sache, c’est encore là dessus que les pays développés sont encore compétitifs, pourquoi l’informatique serait différents des autres métiers ?
La particularité de l’informatique tien peut être de la différence qu’il y a entre le métier d’informaticien tel qu’il est enseigné et la réalité de la carrière qui suit les études. L’informatique, dans les domaines de la programmation, de l’exploitation, des réseaux est un métier technique, plutôt mal connu et qui demande un enseignement lui aussi technique, d’au moins 2 ans mais plus souvent de 3 à 5 ans maintenant. C’est une voie dans laquelle s’engage plutôt par hasard bon nombre de candidats. Cette formation me semble incontournable car l’informatique moderne repose sur de très nombreux concepts qu’il est nécessaire d’appréhender correctement pour être capable de s’adapter aux évolutions très rapides du métier : il est en effet possible d’apprendre en quelques mois un langage spécifique, mais l’excellence dans la programmation, l’adaptation à d’autres langages, l’optimisation sont des domaines nécessaires qui demandent de l’expérience. En informatique je dirai qu’il n’y a rien à apprendre mais tout à comprendre, par rapport à l’enseignement secondaire, c’est une toute nouvelle façon de penser qu’il faut apprendre : l’informatique c’est un légo dans lequel il faut imaginer l’emboîtement de briques algorithmiques, un puzzle et ceci est très loin du raisonnement mathématique et impossible à concevoir par simple apprentissage.
Bref, la formation technique est nécessaire, plutôt longue pour être productif et l’expérience joue un rôle prépondérant dans la productivité du programmeur.
C’est ce dernier point qui est primordial ! Un développeur ne deviendra productif que quand il maîtrisera le langage d’un part, mais surtout lorsqu’il aura mis en place les mécanismes cérébraux lui permettant de concevoir ce puzzle multi-dimensionnel (structure des données/algorithme/langage/modèle d’architecture/temps…). De part mon expérience, je dirai que ceci demande 2 à 3 ans de formations en informatique (soit un niveau dut ou ingénieur) et plutôt 3 ans pour les langages objets ; mais ce n’est toutefois qu’après 2 à 3 années de pratique en entreprise que le développeur sera vraiment productif à mon sens, sans pour autant atteindre un maximum (qui requiert sans doute 7 ou 8 ans d’expérience).
Le gain de productivité en informatique est colossal : entre un étudiant en première année classique et un développeur expérimenté le coefficient de productivité est de l’ordre d’un facteur 20 ; tout en considérant que le premier n’arrivera peut être jamais à une solution si la complexité est importante. Il reste d’un facteur proche de 10 pour un étudiants sortant de l’école et mon estimation pour un développeur avec deux ans d’expérience d’un facteur 2 à 3.

Pourquoi face à cela ne sommes nous pas compétitifs ? Selon moi, la carrière technique d’un informaticien ne dure pas plus de 2 à 3 ans et ce, à la sortie des études. En bref, l’informaticien quittera ses tâches de développements dès lors qu’il deviendra productif en la matière. La faute à quoi ? Simplement au système qui veut qu’un développeur soit au bas de l’échelle et qu’il n’ait comme perspective d’évolution salariale que l’unique choix de quitter son domaine d’expertise pour s’orienter vers des domaines plus fonctionnels pour lesquels il n’a jamais été formé et pour lesquels il ne trouvera pas forcement la même motivation que pour le développement.
J’ai bien du mal à expliquer les raisons de cela d’autant qu’il me semble qu’il s’agit là d’une aberration économique. Toutefois quelques facteurs me semblent expliquer cela :
Bien que les domaines fonctionnels ne requièrent que peu de connaissances techniques, un bagage informatique reste nécessaire dans la rédaction de cahiers des charges où le test. Par ailleurs la part du développement dans un projet ne représente que 25 à 50% du projets. Indiquant par là que pour 1 poste de développement, il est nécessaire d’avoir 3 personnes d’orientation fonctionnelle pour s’occuper du projet. Enfin, il faut reconnaître que l’orientation informatique pour beaucoup n’a sans doute pas été la bonne et que fuir sa composante technique est une chance. Le dernier point qui me vient à l’idée et que pour un non informaticien, la programmation est une chose inintéressante, incompréhensible, de là, quitter cette branche est une opportunité aux yeux d’un RH.

En conséquence de tout cela, l’état dépense beaucoup d’argent pour la formation technique d’informaticien durant 3 à 5 ans. Les entreprises n’utilisent ces compétences que durant les 2 à 3 ans qui suivent alors que “l’outil” n’est pas encore productif. N’est-ce pas du gâchis ?
En parallèle, les informaticiens que nous formons, lorsqu’ils entrent sur le marché du travail ne sont pas préparés à leur futur métier et doivent vivre une carrière qui ne correspond pas à leur projections.

Pour conclure sur ce sujet, je dirai que l’informatique va assez mal, nous avons le choix (actuel) d’arrêter son approche technique et de perdre alors une technique que nous maîtrisons sans aucun doute mieux que les pays émergeants ; la conséquence en sera la disparition de l’industrie informatique de création logicielle en Europe alors que comme nous le montre Microsoft c’est une des industries les plus rentable du monde, principalement intellectuelle et correspondant donc au modèle de croissance de notre société. Auquel cas la formation est à revoir totalement avec sans doute une approche généraliste ou commerciale avec option métier de l’informatique.
L’autre solution serait, me semble-t-il plus juste, de valoriser l’investissement de formation réalisé par l’état en valorisant la filière technique de l’informatique. En reconnaissant ce métier à sa juste valeur et en offrant des plans de carrière dans ce domaine. Comme je l’ai expliqué, le coût jour n’a aucun sens. Nous comparons le coût d’européens débutant vendu 3 fois leur salaire par des SSII à celui d’indiens plus expérimentés mais pas forcement plus productifs. Nous oublions fréquemment de considérer les coûts annexes de pilotage ou les retards que nous n’aurions pas eu en travaillant localement…

Enfin pour finir, je me pose toujours la question de cette spécificité de l’informatique : pour la construction de nos ponts, de nos immeubles, est-ce que les architectes Européens sont remplacés par des architectes Chinois à moindre coût ?!? Il ne me semble pas. Est-ce que cela viendrait à l’idée de quelqu’un d’arrêter la carrière d’un architecte juste à la fin de sa première réalisation ? Je ne pense pas, dans tous les autres métiers intellectuels, l’expérience est fortement valorisée. En informatique nous n’obtenons que le droit de basculer vers un métier qui n’est pas le notre, un métier meilleur pour nous parait-il !

Jmicron et Raid

Oui, je suis fan de l’utilisation du RAID1 (mirroring entre 2 disque dur) cette solution m’a permis de sauver quelques données ou de me dépatouiller rapidement de crash disque … Pour la machine qui très bientot hébergera ce site, je souhaitai donc passer du RAID soft sous linux (qui marche bien au demerant) au RAID hardware. Les carte ayant cette option sur des disques ATA etant très abordable, j’en ai fait l’achat.
Me voici donc avec une ASUS P5B-VM, deux disque SATA identique…
Et bien vous ne devinerez jamais !!! il n’y a qu’un seul port SATA permettant de connecter un disque RAID !!! Le raid 1 à 1 seul disque … il falait l’inventer ca !! En y regardant de plus pret, asus se contre fiche d’offir du raid, il utilise le composant uniquement pour proposer un port IDE, il est donc théoriquement possible de faire du raid entre un disque PATA et un disque SATA … bref aucun interet pour du mirroring. Je l’ai un peu en travers là : la doc ne précise rien là dessus (ils s’en gardet bien) comptant surement sur les 90% d’utilisateur qui ne se serviront jamais de l’option. Bref, je vais peut etre essayer de mettre le second disque sur le SATA externe qui avec un peu de chance est branché sur le chip JMicron… Sinon, retour au raid soft, sans doute moins performant mais qui lui au moins fonctionne (et en plus gratuitement).

Geoportail, SNCF, ces lancement à succès ratés…

Les lancements sont nombreux et les effet d’annonce fatals ! Geoportail n’a pas vraiment pu etre accessible avant 1 semaine ou 2. Le site de la SNCF n’a dernierement pas survécu à la vente de billet TGV à 5? avec le prime le superbe resultat de 0 ventes en ligne ! mais oui ! La faute à qui ? trop de monde en même temps il parrait !

Je ne remets pas en cause ce fait car il est vrai que tout lancement conduit à un pic dramatique pour l’architecture… Mais si le fait est avéré, il est prévisible ! Qu’ont donc fait les chefs de ces projets pour palier à celà ?!? Pas grand chose semble-t-il, en tout cas je leur souhaite car les sommes investies en se sens l’ont été à pure perte vu le résultat !

La question que je me pose est la suivante : vaut-il mieux chercher à servir tout le monde avec une forte probabilité de ne servir personne ou servir une partie seulement des Internautes ? Il semble que ces CP aient choisi la première solution et cet article à pour but, vous l’aurez compris, de décrire comment employer la seconde.

J’ai en effet lu qu’avant l’opération TGV à 5 euros, la SNCF avait anticipé le pic en multipliant par 3 la capacité serveurs… Pour le résultat commercial donnée ci-dessus … c’est du gaspi ; je leur souhaite que celà s’inscrive dans un cadre d’extension global des capacités de leur infrastructure…. bref, la solution n’est pas de ce coté.

Ma vision de ce problème serait une approche différente ; les serveurs étant saturés par :

  • La saturation de la bande passante d’entrée, dûe aux très nombreuses requetes concurente; mais il ne semble pas que ce soit le facteur premier
  • La saturation des serveurs d’application, qui semble être plus directement concernée

S’attaquer à la seconde cause n’est pas vraiment compliqué, sans même multiplier le nombre de serveurs : actuellement, les applications web sont le genre de systèmes extrèmement lourds en consommation mémoire, requete de bdd, cpu. Elles sont l’accumulation des dizaines de couches logicielles : OS, JVM, bibliothèques diverses, jdbc, ejb, frameworks, jps / servlet de présentation … bref, à chaque ouverture de nouvelles sessions, tout ce petit monde se met en branle, réserve beaucoup de mémoire et consomme une quantité astronomique de temps CPU pour n’afficher qu’un bandeau, un menu et deux trois news … L’arrivée de milliers de connexions simultanées sature alors les ressources au point que l’application ne soit tout simplement plus accessible pour personne. La machine arrive rapidement dans un etat de saturation où son temps de réponse n’est plus lineaire mais exponnentiel ; autant dire que le serveur est planté.

Une bonne solution, économique, pour se sortir de cette situation est de protéger ces serveurs de la saturation en limitant le nombre d’utilisateur concurent pouvant accéder à l’application. Celà revient à limiter le nombre de sessions simultanées. Pour empécher la saturation, cette limitation sera prise en compte par un serveur différent dont le rôle, sera, par l’utilisation d’une technologie la plus légère possible, de recevoir toutes les demandes de connexion et de ne transmettre que celles pouvant etre traitées à l’application. Les autres etant renvoyées proprement sur une page d’erreur ou d’information.
L’utilisation d’une technologie légère est la clef de cette solution. J’imagine que les modes “cluster” de serveurs apaches doit pouvoir être configurable en ce sens en limitant le nombre de sessions par serveur : jusqu’a une certaine limite, les sessions sont redirigées vers l’application, les suivante vers une simple page HTML d’erreur.
Bref.. ce n’est qu’une ébauche de solution est il y en a de multiples autres, le tout etant d’y réfléchir et de prendre le problème par le bon bout, ce qui ne me semble pas etre souvant le cas !
La solution optimale serait d’intégrer ce genre de fonctionnalités dans des éléments réseaux matériels dédiés, ce qui existe peut etre, ou en tout cas ce ne serait pas très compliquer à construire pour des spécialistes.

Au passage ces solutions sont aussi une bonne protection contre les attaques en provenance des vers de type flood… ce sont donc des solutions toujours utiles, y compris hors lancement et campagne de promotion : un investissement durable.

En conclusion, les situations que j’ai évoqué et qui font la risée des utilisateurs me semblent majoritairement évitables. Leurs impacts peuvent être tout du moins amoidris et il me semble que ces problématiques doivent donc etres prises en compte plus sérieusement.

Comment fonctionne WEP ?

C’est à grand renfort d’articles sur tout la toile qu’un nouveau POC (Proof Of Concept) vient annoncer que WEP est mort ! rien de bien nouveau en soit puisqu’on l’avait dejà tué depuis des années, mais cette fois la méthode est plus rapide, plus automatique et sans doute bientot à la portée de tous, ou presque.

Est-ce alarmant ? en soit, utiliser Wep est alarmant depuis bien longtemps, donc un peu plus un peu moins ? et si vous dormez sur vos deux oreiles malgré cela et bien continuez ! il n’y a pas de raisons ; le tout c’est d’en être concient, non ?

Qu’est ce que cette nouvelle methode de Bitau, Handley et Joshlack ? Elle repose en fait sur l’utilisation d’un utilitaire existant dans le protocole 802.11 (Wifi) : la fragmentation de trame ou plutot la défragmentation par l’AP. Le rôle de l’AP dans un réseau avec architecture est de recevoir les trames de tout le monde puis de les réémettre : ainsi si tout le monde capte l’AP, tout le monde peut communiquer, y compris si deux postes sont trop distants pour se joindre directement … L’AP etant un périphérique intelligent, lorsqu’il recoit des fragments de trames, il commence par les réunir en trame plus grosses avant de les réémettre. Alors comment cela nous aide-t-il a craquer une clef Wifi, c’est assez simple :
Avec le cryptage WEP, qui n’est autre qu’un simple XOR, il suffit de connaitre une chaine et son equivalent crypté pour connaitre la clef de cryptage, donc puisque nous captons des données cryptées, il nous faut connaitre leur equivalent non crypté pour connaitre la clef associée. Les protocoles de couches basse nous aident en celà : certaines trames LLC/SNAC, ARP ont des parties qui sont constantes et celles-ci sont identifiables par des tailles caractéristiques. En captant ces trames, nous avons des données cryptées et connaissons leur équivalent non crypté. Ainsi il est possible d’obtenir facilement quelques octets de la clef de cryptage (qui n’est cependant pas directment la clef partagée que l’utilisateur configure).
Cette étape accomplie, la nouvelle solution par fragmentation entre en jeu : les morceaux de clef que nous avons sont trop petits, la fragementation va nous permettre de les multiplier : il suffit de renvoyer plusieurs fois la trame reçue en l’indiquant fragmentée : connaissons la cryptée et son équivalent décryptée. L’AP va recevoir ces fragments, les décrypter et les assembler dans une nouvelle trame qu’il va crypter puis, enfin, réémettre cettre trame sur le réseau. Cette trame nous allons pouvoir l’écouter, nous connaissons sa version non cryptée puisqu’il s’agit de la concaténation du message precédent avec lui-même et l’AP vient de nous fournir sa version cryptée. Nous sommes donc à même, comme à l’étape 1 de connaitre la clef associée, mais cette fois nous n’avons plus 8 octets mais n*8 octets (avec n le nombre de framents).

En continuant ainsi il est possible d’obtenir une clef de cryptage valide suffisemment grande pour crypter n’importe quel paquet. Nous allons donc pouvoir emettre sur le réseau n’importe quel paquet, sans connaitre la clef partagée initiale mais simplement la suite issue du RC4. Cette facultée va nous permettre de générer du traffic valide vers le réseau et ainsi collecter un maximum de trames pour, par la suite, lancer une attaque sur ces informations et en déduire la clef partagée (type aircrack).
Cette methode, présentée ainsi est donc une solution plus rapide et encore imparable pour générer du traffic : le principe de defragmentation est à la base du protocole, il est difficile de le bloquer alors que bloquer les réémissions forcée d’une methode aireplay est assez courant. Par ailleurs, il permet de connaitre bcp plus de données de chaque chaînes cryptées (contrairement aux ARP habituels) et ainsi d’etre plus efficasse avec moins de trames.
Cette mehode reste totalement interdite à l’utilisation hors de son propre réseau privé puisqu’elle demande l’emission de données vers le réseau distant, ce qui implique une intrusion dans le dit système, Acte répréhensible par la lois.

Les auteurs de cette methode, proposent une autre alternative à la simple collecte d’informations en vue de connaitre la clef partagée ; en effet, ils proposent d’utiliser cette methode, associée à d’autres pour forcer l’AP à router des paquets cryptés vers l’Internet : dans ce cas, le paquet emis en direction de l’Internet est décrypté par l’AP avant d’etre envoyé sur la ligne (logique on sort du WLAN). Le site distant est alors un site amis du pirate qui va ainsi recevoir les données décryptées issues du réseau WLAN dit “sécurisé” … pas mal ! Le principe en est assez simple, il s’agit de créer une entête IP a destination du serveur sur l’Internet, de l’indiquer fragmenter et de réémettre un paquet crypté que l’on souhaite faire décrypter en l’indiquant comme étant la suite du précédent. L’AP va alors decrypter les deux, concaténer le paquet “secret” à notre entete IP, constater qu’il s’agit d’une trame pour l’extérieur et la router décryptée. Reste que ce type d’attaque est plus facile à tracer qu’un wardriving sauvage, rendu rapide par la methode.

Quid de l’implémentation ? Les auteurs proposent quelques sources de leur POC, la mise en oeuvre demande un contrôle au niveau le plus bas des cartes Wifi, pour, entre autre, gérer les flags permettant la fragmentation au niveau logiciel. Ces possibilités ne sont pas offertes sure toutes les puces ou demandent des workaround un peu touchy .. bref, pour l’instant 2 chips sont supportés dont le PRISM2. Il y a de fortes chances pour que d’autres arrivent.
Point vraiment interressant, ce qu’ils ont mis en oeuvre est totalement automatisé, contrairement à ce qui existe sur aircrack. Les outils aircrack ne peuvent pas etre mis entre toutes les mains, elle doivent toujours être averties : ligne de commandes, options compliquées… Une solution entierement automatisée pourrait etendre la chose aux pirate boutoneux du dimanche …
Il n’en reste pas moins que ca ne marche et ne marchera sans doute jamais que sous Linux et autre BSD ;o)

Déjà de la concurence dans les desktop léger !

Le concept n’existe pas encore, autant dire qu’aucune courbe de Garnet n’envisage même la chose et pourtant la concurrence s’annonce rude pour ce qui se nomme par abus de langage des OS légers, disons plutot des desktop legers ! Après eyeOs voici la venue de YouOS

Comme d’habitude, il s’agit surtout d’un démonstrateur de ce qui se fait en Ajax, on est encore loin d’un système utilisable tout les jours, applications très limitées, performances et compatibilité un peu légères. Comme eyeOs il s’agit surtout un POC (Proof Of Concept).

Et comme eyeOs ca ne marche pas trop mal en ce sens. Il semble que ce système soit porté par une entreprise qui doit donc y voir un avenir commercial, point plutôt intéressant et il est vrai qu’il n’y a pas de raison pour que ca ne le deviennent pas. Après tout emporter son espace personnel avec soit est plutôt un concept prometteur.

Ce qu’il manque avant tout à cela à mon avis est ce qui fédère un front-end graphique : des librairies de développement, des standards de communication pour que d’autres puissent développer des applications et ainsi dépasser les simples calculatrices et autres joujou ajax. Une architecture principalement basée sur les webservice avec une composante serveur très forte serait beaucoup plus intéressante que l’espèce de paquet de nouille javascript qui nous est présenté.

Bref le concept n’est donc pas nouveau mais récent, il n’est pas le premier, ça reste prometteur mais on attend de voir mieux, en tout cas cette concurrence devrait stimuler les développeurs !

USA, I’m back

Me voila aux States comme on dit, pour quelques jours de boulo, en soit je trouve ca assez allucinant : ce matin j’etais chez moi tranquilou et ce soir, l’ai traversé l’Atlantique, il est ici 18h enfin plutot 1h00 du mat à mon compteur personnel, mais j’ai fais la moitier du tour de la planete (en exagérant juste un peu) en moins de temps qu’il n’en faut pour rejoindre Marseille par un jour de grand départ … banal en un sens, allucinant en un autre.

Allucinant, c’est toujours le mot qui me vient à l’esprit avec les américains, je les avais laissé avec leur fromage en bombe et leur avocats plus faciles à trouver qu’un bureau de tabac chez nous… Je les retrouve 6 ans plus tard plutot pareil à première vue : j’ai fait le trajet avec à coté de moi une jeune fille (16-17 ans) qui a passé presque tout le trajet à lire une bible, comment dire… Enorme !!! et pas le genre de bouquin qu’on vous offre et que vous ouvrez de temps en temps pour faire plaisir, non, pas de celà monsieur, mais bien un exemplaire, lu, relu, commenté, annoté, taggé.. bref 2kg de papier dont chaque ligne a dû être compulsé avec délectation …. je ne sais pas trop comment appeler celà ? du fanatisme peut être ?
Hors mis ce premier fait marquant, j’ai retrouvé mes très chers produits garanti fat-free … et mon préféré : l’eau, garantie il y a 6 ans, sans sel ni graisse (des fois qu’on vous refile de l’eau de mer assaissonée à l’huile d’olive en guise d’eau minerale ?!?) Et bien vous ne devinerez jamais, elle est maintenant purifiée … quand je pense que nous on paye l’eau minerale 2 fois plus cher que l’eau de source parceque justement ya des trucs dedans… ben eux, il l’enlève le truc ! à se demander si des fois ca serait pas pour nous le revendre à part dans des cachetons ! Bref, on est pas très loins de la formule H2O brute dans la bouteille… Bref, j’imaginais même pas qu’on puisse avoir besoin de préciser que dans l’eau, ben ya que de l’eau…
L’autre point qui m’a subjugué est bien entendu la montée sécuritaire aux frontière, j’ai précédemment écrit un petit mot d’humeur sur le passeport électronique, et bien se dispositif que je trouve dejà assez intrusif et complété de nombreuses nouvelles mesures : prise l’empruntes et de photo à l’entrée du pays. Rien de choquant en soit puisque ce sont les règles, il faut les accepter, mais bon … j’espere qu’un serial killer n’empruntera pas la même chambre que moi dans un hotel ou que je ne vais pas passer dans le champ d’une camera 10 min avant ou après un hold-up… ca serait un truc à se retrouver en prison plus vite qu’un americain qui en serait sans doute l’auteur… ben oui, ca reste combien de temps une emprunte ? Bref, c’est un peu flippant, mais bon en France les empruntes sont bien prises lors de notre demande de carte d’identitée.

Voilà pour les petites piques, à part ca leur voitures qui me semblaient si grosses à l’époque semblent avoir diminuée de taille… est ce le lire de supper qui à doublé (sisi), le fait dêtre dans un autre état ou bien le fait que nous aussi nous nous soyons mis aux 4×4 urbains, en tout cas je ne suis cette fois moins choqué par la différence. Voila, sinon l’accueil du Français que je suis m’a semblé très sympa, courtois, les gens sont serviables, même l’officier des douanes et là pour le coup, je pense que c’est parceque je n’ai pas attéri au même endroi! héhé.
Aller .. un petit coup de CNN en attendant ma valise, histoire de ne pas me retrouver au boulo en short et en tong demain matin …

VmWare player ou Xen ?

Avant d’utiliser cette technologie avec un objectif de rationnalisation de mes serveurs de dev (restons très modeste je parle de ce qui me sert à developper quelque site perso dont celui-ci), j’ai essayé deux produits me semblant être les principaux outils concernant ma cible d’implémentation à savoir Linux : vmware, outil payant mais disponible en version communautaire et xen, outil totalement ouvert.

J’ai donc commencé par vmware et de dois avoué que c’est à peut pret aussi simple qu’une installation de logiciel classique : installation du RPM qui va bien, lancement de l’executable en temps que root … la compilation des package, la signature de je ne sais trop quoi … tout est automatique. C’est beau c’est pro. nickel !
L’installation d’une VM est assez simple : vmware lance un vrai machine completement virtuelle, avec son bios, ses périphériques virtuel qui ne sont autre que les vrai périphériques physiques de la machine après association faite lors de la configuration de la VM. Bref, il suffit de mettre un cd d’install dans le lecteur, démarrer la VM en cliquant sur le bouton et zou, on boot la VM sur le CD et l’installation débute. Trop facile !!
Une fois installé, le petit package de drivers pour le système hôte se déploie en un clic et optimise grandement la performance des périphériques souris et clavier.
Avantage de vmware, simulant une machine physique, il supporte n’importe quel systeme fonctionnant sur la même plateforme (voir une autre plateforme dans des conditions plus pro). Du coup il est possible de s’en servir pour l’installation de windows XP sous linux lorsque l’on en a une utilisation très ponctuelle comme par exemple vérifier la compatibilité d’un site avec IE ou flasher un périphérique USB pour lequel on a qu’une version windows du soft (c’est du vecu). Parceque oui, le petit plus c’est la possibilité en un click de connecter un element USB sur la VM ! solution très interressante qui ouvre de nombreuses nouvelles possibilités en terme de support de périphérique sur une VM.
Bien sure, il faut aussi regarder les performance de cet environnent virtuel, et de ce point de vue là, dans un cadre d’utilisation simple c’est vraiment correct : pour vous dire j’ai fait tourner un XP sous Linux avec en tache de fond un calcul distributed.net + un calcul BOINC et franchement, l’utilisation etait acceptable, le tout sur une machine à environ 1.5Gz. Les problèmes de performance apparaissent vraiment avec le manque de mémoire : à savoir que le disque est simulé, il s’agit en réalité d’un fichier, lui-même écrit sur un file-système géré par linux et mappé sur un disque physique. Lorsque le système virtuel vient à manquer de mémoire physique, celui-ci se met à swapper dans un fichier, lui-même ecrit dans le fichier décrit ci-dessus … bref, l’empilement d’IO virtuelles et réelles que l’on rencontre alors finit vite par venir à bout de n’importe quoi … et vous amenè par exemple à fermer windows en plus de 2h … beau score ! POur une utilisation plus proffessionnelle ou resemblant moins à des tests je ne peux que conseiller l’utilisation de partitions physique plutot que logique pour les VM.

C’est ainsi que j’ai ensuite décidé de faire quelque essais avec Xen, d’autant que ma suse préférée offrait cette possibilitée. Pour la petite histoire, j’ai tout d’abord essayer ça dans une VM sous vmware (lol).
Le principe de Xen est un peu différent, il ne s’agit pas d’une application hébergée par un système hôte qui va faire tourner des VM, mais d’une couche basse, située en dessous du noyau hôte et qui va permettre le partage des ressources matérielles. Donc en gros, au boot, on demarre une sorte de noyau Xen (l’hyperviseur) qui lui-même va démarrer un noyau principal, le domaine0 depuis lequel on va pouvoir lancer les machines secondaires.
Le noyau est compilé spécifiquement pour Xen avec une architecture eponyme. Xen ne fournit pas une machine vituel, au même sens que vmware qui vous fournit une sorte de PC version logiciel, il fournit un service de partage des ressources matérielle à plusieurs systèmes ce qui est assez différent, surtout dans le sens où il n’est pas possible d’installer avec Xen n’importe quelle VM, mais seulement des noyaux type linux, openbsd & co. Pas de Windows ici bas. L’installation d’une VM ne se fait d’ailleurs pas de le même façon que celle d’un système classique : ici pas de boot depuis le cd pour l’install … on se débrouille pour installer l’OS dans un file système (logique ou physique) puis on boot sur ce file system. Un peu moins user-friendly, mais après tout, la création de VM est-ce vraiment une fonctionnalité grand publique ?
Les performances sont plutot au rendez-vous, j’utilise une VM comme serveur de DEV avec tomcat, mysql & co, les temps de réponse sont les même que sur mon serveur précédent dont la conf était certe un peu inférieur mais sans que ce soit sensible. Grosso modo, je concidère que le fait que ce soit une VM est transparent avec Xen, pour l’instant. A noter qu’il est possible de gérer la priorité entre les différentes VM, solution utile si l’on souhaite partager le même hardware pour des serveur de DEV et PROD par exemple.

Pourquoi utiliser des VM me direz-vous ? hors mis pour se trouver dans le situation hubuesque mais présente : lorsque je boot mon serveur de dev la séquence est la suivante :

  • Un bootloader sur disquette va chercher un booloader pxe sur un serveur tftp
  • Celui-ci charge un bootloder plus perfectionné qui permet de booter un noyau Xen (multi-kernel)
  • Ce dernier va ensuite chercher l’hyperviseur Xen
  • Qui boot le noyau du domaine principal présent sur NFS
  • Qui demarre enfin la VM, elle aussi présente sur un autre lien NFS

Pourquoi faire simple quand on peut faire compliqué ? et bien simplement pour détacher le matériel du logiciel !!! voila qui permet de se sortir en un clein d’oeil des problèmes de pannes, mais qui permet aussi de migrer de matériel sans avoir à faire de réinstallation fastidieuses.