Ainsi Fon fon fon …

L’histoire en soit à peu d’importance d’autant que rien n’en prouve la véracité. Cependant, d’un point de vu technique la situation est totalement probable. Après avoir creusé le sujet de FON avec le peu d’information disponible quant à la sécurité, voici ce que l’on peut en dire.

FON est un systeme de HotSpot mondial qui permet d’ouvrir votre réseau aux autres, je ne vais pas détailler le fonctionnel, mais d’un point de vue technique, le systeme (une AP) gère deux réseaux Wifi, le premier privé, protégé par WPA dans lequel vous mettez vos propres machine et un second réseau, lui public sans sécurité dans lequel viennent se connecter les inconnus de passage. L’Internet est ensuite accessible comme sur tous les hotspot : tant que vous n’êtes pas authentifié vous n’accedez qu’a une page de login et ensuite vous avez un accès HTTP/HTTPS classique.
Le point important est qu’une fois authentifié, vous accédez à l’Internet exactement de la même façon qu’un ordinateur du reseau privé (hors mis que bcp de ports sont filtrés), c’est à dire que l’adresse IP des utilisateurs hotspot se trouvera être la même adresse IP que celle du propriétaire de la ligne. Du point de vue des traces laissées sur Internet, c’est donc la personne qui met à disposition le point d’accès qui se retrouve responsable des action faites par des inconnus.
Le système semble logguer les actions de connexion/deconnexion mais pas le détail de ce qui est fait (après le login, les échanges ne sont plus centralisés et les box ne peuvent stocker un historique important, enfin du point de vue provider il n’est pas possible de dissocier les flux).Ainsi, s’il est possible de prouver qu’une autre personne utilisait Internet au moment de faits, il n’est pas possible de prouver qui était l’auteur de ces faits. En conséquence le système est donc dangereux pour la personne mettant en ?uvre le service. Prenons un exemple:
Une personnes se connecte à des sites pédophiles ou terroristes en utilisant cet accès, (cette personne aura d’ailleurs tout intérêt à utiliser ce type d’accès puisqu’il permet assez facilement d’y être anonyme (point à vérifier)), elle laisse des traces sur les serveur accédés. Dans le cadre d’une enquête de police ces traces sont recueillies et un beau matin à 6:00 vous pouvez voir débarquer un peu plus de monde que prévu à cette heure-ci. Même innocent, cette situation sera loin d’être agréable je l’imagine.

J’adore le principe ouvert de FON, mais d’un point de vue technique, je trouve que les capacité de log sont un peu légère, il est certes difficile de totalement protéger la personne qui partage sont adresse IP, mais je pense que le niveau de log inscrit dans le système devrait être très détaillé avec une rétention de plusieurs années. Voir, le recours à un proxy FON serait une solution bien plus sécurisante pour celui qui partage, ainsi ce n’est pas son IP mais celle du proxy qui serait visible des services de police, qui se tournerait vers FON pour obtenir des informations. Ceux-ci seraient donc alerté dès le début de la procédure de l’innocence présumée forte de celui qui a prété son acces.

Hadopi, comment y croire ?

Point intéressant lorsque l’on sait que beaucoup des fichiers echangés sur les reseaux de P2P ont un contenu souvent sans rapport avec leur titre. Par ailleurs, si l’on considère qu’un même fichier peut avoir des noms différents d’une machine à l’autre il est difficile de savoir quel est le fichier vraiment téléchargé. Par exemple, admettons que je cherche à télécharger les titres d’un artististe produisant de la musique libre de droit, dont le nom serait “tarte-muche”, mais que d’autres personnes aient choisi, pour le faire connaitre, de nommer ces mêmes fichiers, Madonna ou Rolling Stones, alors que leur contenu est bien celui de ‘tarte-muche”. Comment l’entité Hadopi pourra, en se basant sur le nom, garantir que je télécharge légalement ou non ? Si lors du procés qui arrivera au moins 1 an après j’ai effacé le titre, comment prouver mon innocence, puisque dans ce cas, il semble qu’il n’y ait pas d’enquete, ni de recherche de la preuve ?

Cet exemple pourra faire sourire tellement il semble marginal, mais il n’est pour autant pas improbable et certains pourraient s’amuser à ce petit jeu. Mais il démontre une nouvelle fois le décalage entre lois et technique. Les fichiers P2P sont échangés avec une clef (hash) qui les rend unique de sorte à pouvoir les retrouver sur la toile et non avec un nom. C’est bien cette clef qui devrait être utilisée.

Enfin, il n’a toujours pas été indiqué quels etaient les moyens mis à notre disposition pour prouver notre innocence (pardon, protéger notre réseau (belle blague encore)), encore un point inaplicable de cette lois comme je l’ai indiqué dans un précédent article.

Le Cloud Computing

Cloud Computing

Mot sur toutes les lèvres lors du Gartner Summit de Londre sur les Data Center, il n’en reste pas moins qu’il s’agit à ce jour plus d’un concept que d’une réalité. Il existe toutefois plusieurs réalités sous-jacentes à ce concept. Réalité qu’il faudra prendre en compte dans les années à venir et qui peuvent radicalement changer notre contexte d’infrastructure, principalement pour ce qui touche à l’industrialisation des applications et à la consolidation.
S’il y a deux termes à retenir dans la notion de cloud, c’est élasticité et facturation au service. Termes qui vont prendre des conotations differentes si l’on parle de cloud privé (infrastructure dont nous sommes propriétaire) ou de cloud publique (infrastructure que nous achetons comme un service à l’extérieur).
Continue reading

Cloud Computing et applications hébergées

Le cloud computing est le fait de mettre des applications à disposition sur des serveurs et que ces applications puissent être utilisées de n’importe où dans le monde au travers d’un navigateur. Le système permet donc une installation centralisée de l’application, une diffusion immédiate sans installation sur le poste client. Il permet une trés forte scalabilité car les applications peuvent être déployées sur autant de serveurs que nécessaire. En outre, ces sytèmes sont nativement coopératifs : partage de documents entre plusieurs utilisateurs… Utilisant des technologies Ajax/Web2, ils offrent des interfaces graphique similaire à des client lourds (on parle de client riche ici). Une partie du traitement est exécuté coté serveur, une partie coté client. En général, le client exécute les fonctions graphiques (gestion de l’interaction avec l’utilisateur) alors que le backend coté serveur gère les données.
Les google apps sont sans doute les applications les plus évoluées et couvre le nécessaire minimum d’entreprise : traitement de texte, tableur, agenda, mail et partage documentaire. Certaines entreprise comme Tweeter se sont fait connaitre, après avoir eu quelques déboires, pour utiliser ces outils, presque exclusivement dans leur activité.
Le principal problème des applications de type cloud est quelles ne respectent pas une sorte de standard comme des application classiques, ce qui fait qu’il est difficile de les mélanger les une avec les autres sur une sorte de bureau classique, si bien que l’on travaille avec des onglets ou des fenêtres ce qui n’est pas vraiment pratique à l’usage. Il manque donc une couche de gestionnaire de fenêtre standard, permettant l’intégration d’applications multiples. Personne n’etant mur là dessus, la proposition de Google est pour l’instant l’emploie de Chrome, un navigateur qui separe chaque onglet du browser. Cette solution n’est en rien un bureau, mais elle permet, lorsqu’un onglet plante, dans l’usage actuel, de ne pas perdre les autres onglets et les données qu’il contient. Un peu comme les windows actuel, contrairement à Win 3.11, permettent en cas de plantage d’une application de ne tuer que celle-ci, sans rebouter l’ensemble.

Le second frein est la manque d’applications, même si de plus en plus sont disponibles, malgré tout même si ce qu’elles font déjà est bluffant, il leur reste du chemin avant de couvrir les fonctionnalités des clients lourds. Si bien que j’en viens à me demander si une solution ne serait pas l’implémentation d’un protocole X windows en JavaScript. Il permettrait d’exécuter n’importe quelle application Linus dans un browser web, recréant dans le browser le bureau dont nous avons besoin. J’imagine certe que la performance pourrait être moindre mais toujours meilleure que les solutions VNC souvent utilisées ; proche de CITRIX qui a fait ses preuves sur des connexions lentes.
Technologiquement ca n’a rien d’innovant et contrairement au Web2, on ne profitera pas d’un traitement front-end intelligent, ni même d’un backend capable de supporter un crash du front-end sans perte de données comme nous l’avons avec les google apps… Cela mérite toutefois d’être réfléchi, vu le parc applicatif sous X, bien plus complet que ce qui existe en Web2.

La fin des GPUs

Document très intéressant sur la fin programmé des cartes vidéo accélératrices 3d au profit des processeurs mutli-coeurs.
Le raisonnement se tient bien, implacable, de la part de spécialistes de la questions.
Finalement, comme toujours, une période de spécialisation précède une période de généralisation, jusqu’au prochain plafonnement ; et ainsi de suite.
Au client / serveur, suit la bureautique puis le cloud computing … C’est toujours la même histoire.

Click to access TimHPG2009.pdf

SCO contre UNIX, suite et fin

La vie d’Unix a depuis longtemps été tourmentée, ce système d’exploitation a d’abord été propriétaire d’AT&T puis il est devenu un bien public offert à des universités pour ensuite se développer dans une sphère privée au sein de multiples entreprises comme Novell, IBM, HP, SGI… et SCO. Novell en devient tout d’abord propriétaire, puis il la cède à SCO et enfin Caldera qui deviendra propriété de SCO en 2002. Au final la propriété intellectuelle de ce système est devenue plutot trouble. Actuellement 3 entreprises proclame cette propriété ou tout du moins une partie : IBM, Novell, Sun et SCO.

Les deux premières font actuellement une grosse partie de leur chiffre là dessus, que ce soit avec AIX ou Linux pour IBM et Linux au travers de ses distributions OpenSuse et SLES (Suse Linux Enterprise Server) pour Novell. SCO quand à elle est une société en limite de liquidation qui n’a su s’adapter/profiter des évolutions du marché informatique. Depuis quelques années SCO mise donc sur sa potentielle propriété d’UNIX pour renaitre de ses cendres en obtenant soit de la part des IBM / Novell quelques milliards d’euro soit en demandant aux utilisateur de Linux de lui verser une licence d’utilisation. SCO à développé son UNIX à partir de XENIX et System V dès 1979 puis racheta UnixWare un decendant de SVR4 à Novell en 1995 ; c’est entre autre cette versiondont la proriété de certains éléments est discutée.

En effet, SCO reproche aux autres sociétés (IBM, Novell) d’avoir inclus des morceaux de programmes directement issus d’Unix dans le noyau Linux ; car il est important de le rappeler, Linux n’est pas un programme dérivé d’Unix contrairement à beaucoup d’autres. Linux a été ré-écrit de zéro. Toutefois, au fil du temps, des sociétés comme celles citées ont injecté du code dont elles se considèrent comme propriétaire et issu d’UNIX pour améliorer Linux. Si bien que des traces d’Unix existent dans le noyau communautaire libre. Entre autre SCO déclare en Juin 2003 que la technologie RCU (Remote Copy Update) aurait été inclue dans le noyau.

Les épisodes de 2003 sont nombreux, au cours de ceux-ci, SCO réclame 1 milliard à IBM et se trouve un allié auprès de Microsoft. Poussant le buzz jusqu’à envoyer des lettres de menaces aux distributeurs de Linux (1500 lettres) puis à demander aux utilisateurs de Linux de leur verser des licences allant de $200 à $5000. Portant ainsi atteinte aux activités commerciales de RedHat et Suse (maintenant Novell) ces sociétés attaquent SCO et gagnent en Allemagne. IBM contre-attaque enfin pour violation de divers brevets logiciels lui appartenant et violation de la GPL. Dans cet épisode SCO tentera même de faire briser la licence GPL (licence libre utilisée par Linux) pour aboutir à ses fins.

Alors qu’en Aout 2007 le juge Dan Kimball donne finalement raison à Novell lui reconnaissant la propriété d’Unix (et notamment UnixWare avant 1995) anéantissant toutes les chances de SCO de survivre ou continuer ses actions contre la communauté du libre, une cours fédérale vient de casser ce jugement le 24 Aout 2009. Déclarant la question des droits d’Unix trop complexe et devant être tranchée par un jury. Cette décision remet SCO en selle pour une seconde attaque contre le monde Linux. SCO n’a d’autre échappatoire financier que celui de lancer ces attaques étant sa situation financière et l’étroitesse des marchés qui pourrait éventuellement lui rester. SCO est actuellement sous perfusion du Prince Al-Walid ben Talal par l’intermédiaire de Stephen Norris, cofondateur du groupe Carlyle alors que l’entreprise doit toujours 2,4 millions de dollars à Novell concernant le précédent jugement.

Par ce nouveau jugement, une nouvelle période de questionnement débute dans le monde du libre (y compris commercial) où pèse sur chaque utilisateur de Linux un risque de devoir un jour payer un cout de licence supplémentaire. Si toutefois cette situation ne semble pas vraiment réaliste à terme, elle n’empêche qu’elle profite à des acteurs comme Microsoft qui ne saura manquer ce nouveau buzz pour détourner une clientèle qui regarde de plus en plus ailleurs.

Il reste à voir comment tout ceci va se dérouler car contrairement à 2003 où cela à éclaté, le marché de Linux a bien changé et les IBM, Novell, Google et même Microsoft y ont pris des parts considérables.

http://www.groklaw.net/staticpages/index.php?page=20080803065719599

Passage d’OpenSude à SLED … fuyez !

Bon, l’idée est que maintenant OpenSuse n’est plus supporté que sur une période très limitée, ce qui n’est pas top dans un usage serveur. Je trouve cela assez dommage, mais globalement compréhensible. Du coup, je viens de passer à la version SLED 11 qui est un équivalent payant (45?/an) mais qui offre un support durable de la prt de Novell. Jusque là je suis ravi et heureux de contribuer à la valorisation économique de Linux.

Sauf que je reproche tout de même à Novell de pousser le bouchon un peu loin car la SLED est vraiment limité en paquet, ne pas avoir de serveur DHCP inclus dans la distrib est franchement lourd mais encore compréhensible, mais alors, ne pas trouver d’outils comme tomcat, apache, eclipse… utilisé sur un poste de bureau par le développeur que je suis est plus que limite !

J’avais vu qu’il etait possible d’ajouter les repository de la SLES sur une SLED après installation, je constate qu’il n’en est rien : il faut ajouter des repositoty SLE-SDK (générant bcp d’erreurs) sur lesquels il n’y a aucune information de support. J’aurai aimé choisir une SLES bien plus complète à la place d’une SLED, mais voila, je ne suis pas une entreprise et ne tire pas de revenus de mes serveurs, alors investir 300-500? de license n’est pas possible. Messieur Novell, je suis à 2 doigts de passer chez Debian ou Ubuntu apres 10 ans de fidelité ; le jour où je commence à vous financer …

Pour ceux qui auraient le meme besoin d’acceder aux paquet SLES, comme c’est compliqué je vous donne le truc :
1- télécharger le sdk ici : http://download.novell.com/Download?buildid=fQKpDcAhPVY
2- L’ajouter à la liste des repository en tant que produit complémentaire (Le media 2 genere plein d’erreur, il est possible que le 1 suffise)
3- Enregistrer ce produit sur le NCC (automatique lorsque l’on passe par les produits complemtaire)
4- Aller sur le le site ouaib du customer center : https://secure-www.novell.com/center/regadmin/jsps/home_app.jsp
5- Aller dans Mes Produits>>Reference en Mirroir et générez le login/mot de passe
6- Aller dans la liste des repository de la SLED et ajouter ceux de SLE-SDK Pool et Updates (il devrait alors etre possible de desactiver les supports physiques, plutot penibles à gérer); ajouter à l’URL le nom de la version (x86_64…) et utiliser la connexion non anonyme en mettant les L/P obtenus du NCC. Il y aura un message d’erreur que vous pouvez simplement ignorer.
7-Désactivez les supports ISO… comme ca plus d’erreurs.

Essai Netbook Dell Mini 12

Le netbook Dell Mini 12 est un ordinateur léger, surtout en poids, il s’agit d’une machine a base de processeur Atom Z520 qui est 1 processeur bi core cadencé à 1.3GHz. La configuration inclue 1 Go de Ram et un disque dur de 80Gb. L’intérêt de cette machine par rapport à un eeepc est qu’elle intègre un écran 12″ de résolution 1280×800 de bonne facture. Son usage peut donc couvrir selon d’un ordinateur portable classique dans les usage de bureautique/Internet classique avec un poids de seulement 1Kg (et quelques) et une autonomie de 2 à 3 heures.

Bien que la machine soit vendue avec une distribution Ubuntu, je vais commencer par la remplacer par une version OpenSuse 11.1 (vous me connaissez… je suis fan) – en fait, certain add-on dont j’ai besoin pour mon travail son mieux adaptés à Suse. J’en profiterai pour faire un petit test de cette nouvelle version.
L’installation de l’Opensuse s’est bien passé si ce n’est que la machine n’ayant aucune autre entrée que des ports USB (et reseau) il faudra pour une installation utiliser un DVD externe ou une clef usb bootable avec l’iso de la distribution. Même si à première vue tout semble fonctionner une fois l’installation terminée, c’est en réalité là que les problèmes commencent:
* La carte wifi pour commencer, il s’agit d’un chip Brandcom 4312 non supporté en standard. Après quelques essai infructueux, la solution est finalement d’ajouter le Repository PackMan et de chercher le driver broadcom qui est packagé. Une fois le reboot passé et le choix du noyau debug au demarrage, le wifi peut être configuré.
* La carte vidéo pose elle aussi problème : le chip intel GMA500 n’est pas reconnu et la résolution sera bloquée en 1024×768 situation très dommage, rapport a l’intérêt que l’écran représente sur cette machine. J’ai essayé de nombreuses pistes qui se sont toutes avérées des échecs. Il doit cependant y avoir une solution puisque le Linux Ubuntu installé par défaut fonctionne ; j’ai cependant lu que certain drivers pouvaient marcher mais avec des versions de noyau plus anciennes. En bref .. on oublie.

Pour ce qui est de l’opensuse 11.1, je lui trouve un gros inconvéniant : pourquoi avoir remplacé Yast2 qui permetait assez simplement d’accéder à tous les outils de configuration pour le remplacer par une liste d’applications indépendentes beaucoup moins pratique !! Pour le reste, ca fonctionne bien.