Hadopi, comment y croire ?

Point intéressant lorsque l’on sait que beaucoup des fichiers echangés sur les reseaux de P2P ont un contenu souvent sans rapport avec leur titre. Par ailleurs, si l’on considère qu’un même fichier peut avoir des noms différents d’une machine à l’autre il est difficile de savoir quel est le fichier vraiment téléchargé. Par exemple, admettons que je cherche à télécharger les titres d’un artististe produisant de la musique libre de droit, dont le nom serait “tarte-muche”, mais que d’autres personnes aient choisi, pour le faire connaitre, de nommer ces mêmes fichiers, Madonna ou Rolling Stones, alors que leur contenu est bien celui de ‘tarte-muche”. Comment l’entité Hadopi pourra, en se basant sur le nom, garantir que je télécharge légalement ou non ? Si lors du procés qui arrivera au moins 1 an après j’ai effacé le titre, comment prouver mon innocence, puisque dans ce cas, il semble qu’il n’y ait pas d’enquete, ni de recherche de la preuve ?

Cet exemple pourra faire sourire tellement il semble marginal, mais il n’est pour autant pas improbable et certains pourraient s’amuser à ce petit jeu. Mais il démontre une nouvelle fois le décalage entre lois et technique. Les fichiers P2P sont échangés avec une clef (hash) qui les rend unique de sorte à pouvoir les retrouver sur la toile et non avec un nom. C’est bien cette clef qui devrait être utilisée.

Enfin, il n’a toujours pas été indiqué quels etaient les moyens mis à notre disposition pour prouver notre innocence (pardon, protéger notre réseau (belle blague encore)), encore un point inaplicable de cette lois comme je l’ai indiqué dans un précédent article.

Le Cloud Computing

Cloud Computing

Mot sur toutes les lèvres lors du Gartner Summit de Londre sur les Data Center, il n’en reste pas moins qu’il s’agit à ce jour plus d’un concept que d’une réalité. Il existe toutefois plusieurs réalités sous-jacentes à ce concept. Réalité qu’il faudra prendre en compte dans les années à venir et qui peuvent radicalement changer notre contexte d’infrastructure, principalement pour ce qui touche à l’industrialisation des applications et à la consolidation.
S’il y a deux termes à retenir dans la notion de cloud, c’est élasticité et facturation au service. Termes qui vont prendre des conotations differentes si l’on parle de cloud privé (infrastructure dont nous sommes propriétaire) ou de cloud publique (infrastructure que nous achetons comme un service à l’extérieur).
Continue reading

Cloud Computing et applications hébergées

Le cloud computing est le fait de mettre des applications à disposition sur des serveurs et que ces applications puissent être utilisées de n’importe où dans le monde au travers d’un navigateur. Le système permet donc une installation centralisée de l’application, une diffusion immédiate sans installation sur le poste client. Il permet une trés forte scalabilité car les applications peuvent être déployées sur autant de serveurs que nécessaire. En outre, ces sytèmes sont nativement coopératifs : partage de documents entre plusieurs utilisateurs… Utilisant des technologies Ajax/Web2, ils offrent des interfaces graphique similaire à des client lourds (on parle de client riche ici). Une partie du traitement est exécuté coté serveur, une partie coté client. En général, le client exécute les fonctions graphiques (gestion de l’interaction avec l’utilisateur) alors que le backend coté serveur gère les données.
Les google apps sont sans doute les applications les plus évoluées et couvre le nécessaire minimum d’entreprise : traitement de texte, tableur, agenda, mail et partage documentaire. Certaines entreprise comme Tweeter se sont fait connaitre, après avoir eu quelques déboires, pour utiliser ces outils, presque exclusivement dans leur activité.
Le principal problème des applications de type cloud est quelles ne respectent pas une sorte de standard comme des application classiques, ce qui fait qu’il est difficile de les mélanger les une avec les autres sur une sorte de bureau classique, si bien que l’on travaille avec des onglets ou des fenêtres ce qui n’est pas vraiment pratique à l’usage. Il manque donc une couche de gestionnaire de fenêtre standard, permettant l’intégration d’applications multiples. Personne n’etant mur là dessus, la proposition de Google est pour l’instant l’emploie de Chrome, un navigateur qui separe chaque onglet du browser. Cette solution n’est en rien un bureau, mais elle permet, lorsqu’un onglet plante, dans l’usage actuel, de ne pas perdre les autres onglets et les données qu’il contient. Un peu comme les windows actuel, contrairement à Win 3.11, permettent en cas de plantage d’une application de ne tuer que celle-ci, sans rebouter l’ensemble.

Le second frein est la manque d’applications, même si de plus en plus sont disponibles, malgré tout même si ce qu’elles font déjà est bluffant, il leur reste du chemin avant de couvrir les fonctionnalités des clients lourds. Si bien que j’en viens à me demander si une solution ne serait pas l’implémentation d’un protocole X windows en JavaScript. Il permettrait d’exécuter n’importe quelle application Linus dans un browser web, recréant dans le browser le bureau dont nous avons besoin. J’imagine certe que la performance pourrait être moindre mais toujours meilleure que les solutions VNC souvent utilisées ; proche de CITRIX qui a fait ses preuves sur des connexions lentes.
Technologiquement ca n’a rien d’innovant et contrairement au Web2, on ne profitera pas d’un traitement front-end intelligent, ni même d’un backend capable de supporter un crash du front-end sans perte de données comme nous l’avons avec les google apps… Cela mérite toutefois d’être réfléchi, vu le parc applicatif sous X, bien plus complet que ce qui existe en Web2.

La fin des GPUs

Document très intéressant sur la fin programmé des cartes vidéo accélératrices 3d au profit des processeurs mutli-coeurs.
Le raisonnement se tient bien, implacable, de la part de spécialistes de la questions.
Finalement, comme toujours, une période de spécialisation précède une période de généralisation, jusqu’au prochain plafonnement ; et ainsi de suite.
Au client / serveur, suit la bureautique puis le cloud computing … C’est toujours la même histoire.

Click to access TimHPG2009.pdf

SCO contre UNIX, suite et fin

La vie d’Unix a depuis longtemps été tourmentée, ce système d’exploitation a d’abord été propriétaire d’AT&T puis il est devenu un bien public offert à des universités pour ensuite se développer dans une sphère privée au sein de multiples entreprises comme Novell, IBM, HP, SGI… et SCO. Novell en devient tout d’abord propriétaire, puis il la cède à SCO et enfin Caldera qui deviendra propriété de SCO en 2002. Au final la propriété intellectuelle de ce système est devenue plutot trouble. Actuellement 3 entreprises proclame cette propriété ou tout du moins une partie : IBM, Novell, Sun et SCO.

Les deux premières font actuellement une grosse partie de leur chiffre là dessus, que ce soit avec AIX ou Linux pour IBM et Linux au travers de ses distributions OpenSuse et SLES (Suse Linux Enterprise Server) pour Novell. SCO quand à elle est une société en limite de liquidation qui n’a su s’adapter/profiter des évolutions du marché informatique. Depuis quelques années SCO mise donc sur sa potentielle propriété d’UNIX pour renaitre de ses cendres en obtenant soit de la part des IBM / Novell quelques milliards d’euro soit en demandant aux utilisateur de Linux de lui verser une licence d’utilisation. SCO à développé son UNIX à partir de XENIX et System V dès 1979 puis racheta UnixWare un decendant de SVR4 à Novell en 1995 ; c’est entre autre cette versiondont la proriété de certains éléments est discutée.

En effet, SCO reproche aux autres sociétés (IBM, Novell) d’avoir inclus des morceaux de programmes directement issus d’Unix dans le noyau Linux ; car il est important de le rappeler, Linux n’est pas un programme dérivé d’Unix contrairement à beaucoup d’autres. Linux a été ré-écrit de zéro. Toutefois, au fil du temps, des sociétés comme celles citées ont injecté du code dont elles se considèrent comme propriétaire et issu d’UNIX pour améliorer Linux. Si bien que des traces d’Unix existent dans le noyau communautaire libre. Entre autre SCO déclare en Juin 2003 que la technologie RCU (Remote Copy Update) aurait été inclue dans le noyau.

Les épisodes de 2003 sont nombreux, au cours de ceux-ci, SCO réclame 1 milliard à IBM et se trouve un allié auprès de Microsoft. Poussant le buzz jusqu’à envoyer des lettres de menaces aux distributeurs de Linux (1500 lettres) puis à demander aux utilisateurs de Linux de leur verser des licences allant de $200 à $5000. Portant ainsi atteinte aux activités commerciales de RedHat et Suse (maintenant Novell) ces sociétés attaquent SCO et gagnent en Allemagne. IBM contre-attaque enfin pour violation de divers brevets logiciels lui appartenant et violation de la GPL. Dans cet épisode SCO tentera même de faire briser la licence GPL (licence libre utilisée par Linux) pour aboutir à ses fins.

Alors qu’en Aout 2007 le juge Dan Kimball donne finalement raison à Novell lui reconnaissant la propriété d’Unix (et notamment UnixWare avant 1995) anéantissant toutes les chances de SCO de survivre ou continuer ses actions contre la communauté du libre, une cours fédérale vient de casser ce jugement le 24 Aout 2009. Déclarant la question des droits d’Unix trop complexe et devant être tranchée par un jury. Cette décision remet SCO en selle pour une seconde attaque contre le monde Linux. SCO n’a d’autre échappatoire financier que celui de lancer ces attaques étant sa situation financière et l’étroitesse des marchés qui pourrait éventuellement lui rester. SCO est actuellement sous perfusion du Prince Al-Walid ben Talal par l’intermédiaire de Stephen Norris, cofondateur du groupe Carlyle alors que l’entreprise doit toujours 2,4 millions de dollars à Novell concernant le précédent jugement.

Par ce nouveau jugement, une nouvelle période de questionnement débute dans le monde du libre (y compris commercial) où pèse sur chaque utilisateur de Linux un risque de devoir un jour payer un cout de licence supplémentaire. Si toutefois cette situation ne semble pas vraiment réaliste à terme, elle n’empêche qu’elle profite à des acteurs comme Microsoft qui ne saura manquer ce nouveau buzz pour détourner une clientèle qui regarde de plus en plus ailleurs.

Il reste à voir comment tout ceci va se dérouler car contrairement à 2003 où cela à éclaté, le marché de Linux a bien changé et les IBM, Novell, Google et même Microsoft y ont pris des parts considérables.

http://www.groklaw.net/staticpages/index.php?page=20080803065719599

Passage d’OpenSude à SLED … fuyez !

Bon, l’idée est que maintenant OpenSuse n’est plus supporté que sur une période très limitée, ce qui n’est pas top dans un usage serveur. Je trouve cela assez dommage, mais globalement compréhensible. Du coup, je viens de passer à la version SLED 11 qui est un équivalent payant (45?/an) mais qui offre un support durable de la prt de Novell. Jusque là je suis ravi et heureux de contribuer à la valorisation économique de Linux.

Sauf que je reproche tout de même à Novell de pousser le bouchon un peu loin car la SLED est vraiment limité en paquet, ne pas avoir de serveur DHCP inclus dans la distrib est franchement lourd mais encore compréhensible, mais alors, ne pas trouver d’outils comme tomcat, apache, eclipse… utilisé sur un poste de bureau par le développeur que je suis est plus que limite !

J’avais vu qu’il etait possible d’ajouter les repository de la SLES sur une SLED après installation, je constate qu’il n’en est rien : il faut ajouter des repositoty SLE-SDK (générant bcp d’erreurs) sur lesquels il n’y a aucune information de support. J’aurai aimé choisir une SLES bien plus complète à la place d’une SLED, mais voila, je ne suis pas une entreprise et ne tire pas de revenus de mes serveurs, alors investir 300-500? de license n’est pas possible. Messieur Novell, je suis à 2 doigts de passer chez Debian ou Ubuntu apres 10 ans de fidelité ; le jour où je commence à vous financer …

Pour ceux qui auraient le meme besoin d’acceder aux paquet SLES, comme c’est compliqué je vous donne le truc :
1- télécharger le sdk ici : http://download.novell.com/Download?buildid=fQKpDcAhPVY
2- L’ajouter à la liste des repository en tant que produit complémentaire (Le media 2 genere plein d’erreur, il est possible que le 1 suffise)
3- Enregistrer ce produit sur le NCC (automatique lorsque l’on passe par les produits complemtaire)
4- Aller sur le le site ouaib du customer center : https://secure-www.novell.com/center/regadmin/jsps/home_app.jsp
5- Aller dans Mes Produits>>Reference en Mirroir et générez le login/mot de passe
6- Aller dans la liste des repository de la SLED et ajouter ceux de SLE-SDK Pool et Updates (il devrait alors etre possible de desactiver les supports physiques, plutot penibles à gérer); ajouter à l’URL le nom de la version (x86_64…) et utiliser la connexion non anonyme en mettant les L/P obtenus du NCC. Il y aura un message d’erreur que vous pouvez simplement ignorer.
7-Désactivez les supports ISO… comme ca plus d’erreurs.

Essai Netbook Dell Mini 12

Le netbook Dell Mini 12 est un ordinateur léger, surtout en poids, il s’agit d’une machine a base de processeur Atom Z520 qui est 1 processeur bi core cadencé à 1.3GHz. La configuration inclue 1 Go de Ram et un disque dur de 80Gb. L’intérêt de cette machine par rapport à un eeepc est qu’elle intègre un écran 12″ de résolution 1280×800 de bonne facture. Son usage peut donc couvrir selon d’un ordinateur portable classique dans les usage de bureautique/Internet classique avec un poids de seulement 1Kg (et quelques) et une autonomie de 2 à 3 heures.

Bien que la machine soit vendue avec une distribution Ubuntu, je vais commencer par la remplacer par une version OpenSuse 11.1 (vous me connaissez… je suis fan) – en fait, certain add-on dont j’ai besoin pour mon travail son mieux adaptés à Suse. J’en profiterai pour faire un petit test de cette nouvelle version.
L’installation de l’Opensuse s’est bien passé si ce n’est que la machine n’ayant aucune autre entrée que des ports USB (et reseau) il faudra pour une installation utiliser un DVD externe ou une clef usb bootable avec l’iso de la distribution. Même si à première vue tout semble fonctionner une fois l’installation terminée, c’est en réalité là que les problèmes commencent:
* La carte wifi pour commencer, il s’agit d’un chip Brandcom 4312 non supporté en standard. Après quelques essai infructueux, la solution est finalement d’ajouter le Repository PackMan et de chercher le driver broadcom qui est packagé. Une fois le reboot passé et le choix du noyau debug au demarrage, le wifi peut être configuré.
* La carte vidéo pose elle aussi problème : le chip intel GMA500 n’est pas reconnu et la résolution sera bloquée en 1024×768 situation très dommage, rapport a l’intérêt que l’écran représente sur cette machine. J’ai essayé de nombreuses pistes qui se sont toutes avérées des échecs. Il doit cependant y avoir une solution puisque le Linux Ubuntu installé par défaut fonctionne ; j’ai cependant lu que certain drivers pouvaient marcher mais avec des versions de noyau plus anciennes. En bref .. on oublie.

Pour ce qui est de l’opensuse 11.1, je lui trouve un gros inconvéniant : pourquoi avoir remplacé Yast2 qui permetait assez simplement d’accéder à tous les outils de configuration pour le remplacer par une liste d’applications indépendentes beaucoup moins pratique !! Pour le reste, ca fonctionne bien.

Des sites qui utilisent Ajax

Ajax se démocratise de plus en plus, et nombre de sites basés sur cette technologie voient le jour.Voici une liste bien sûr non exhaustive qui permet un petit d’horizon de ce qui se fait actuellement sur la toile en matière d’Ajax.

http://www.kiko.com/

Kiko est un agenda interactif. Vous pouvez marquez vos rendez-vous, réunions et autres commentaires dans un calendrier modulable.

http://www.bubbleshare.com/

Bubbleshare est un site de partage de photo.

 

http://www.webezz.net/

Webezz permet de créer son site web complet en ligne à la manière des logiciels Wysiwyg (http://fr.wikipedia.org/wiki/Wysiwyg).

 

http://www.tadalist.com/

Tadalist est un site stockant vos “To Do Lists”, vos listes de choses à faire en somme. L’utilisation d’Ajax n’y est pas flagrante mais néanmoins présente.

http://www.formassembly.com/

Form Assembly est un outil intéressant pour les développeurs web : Il permet de créer des formulaires qui pourront ensuite être facilement intégré à vos sites.

 

http://www.backbase.com/

Backbase est une société qui a développé des outils pour la création de sites web dynamiques, donc bien entendue elle utilise l’Ajax !

http://simile.mit.edu/timeline/

Le Timeline permet de visualiser des évènements sur une échelle de temps.

http://www.findmycover.com/

FindMyCover permet de retrouver les images de pochettes de CD ou de DVD. La recherche affiche dynamiquement le résultat sur la page.

http://maps.google.fr/

Le célèbre Google Maps est un impressionnant exemple des capacités d’Ajax. Entre autre, la fluidité dans l’affichage des carte vient du fait que les images sont pré-chargées en tâche de fond lors de l’utilisation.

http://www.ajaxtrans.com/

Un petit traducteur 12 langues en Ajax.

http://www.sproutliner.com/

Sproutliner est un gestionnaire de tâche entièrement paramétrable.

http://www.extratasty.com/

Extratasty permet de réaliser des cocktails en ligne à partir d’une liste d’ingrédients, le tout géré en Ajax.

http://www.objectgraph.com/dictionary/

Voilà une belle démonstration de la complétion en Ajax. Ce dictionnaire anglophone est rapide et complet, et affiche les définitions des mots commencés à taper