Pourquoi il faut s’intéresser de près à Microsoft

Si vous passez régulièrement sur ce blog, vous connaissez sans doute mon profil : Macophile après avoir été Linuxien, développeur Java et PHP, je n’ai pas grand chose à voir avec le monde Microsoft. On peut même aller jusqu’à dire que j’ai été élevé tout au long de ma carrière dans une ambiance plutôt anti-Microsoft, avec des arguments allant du plus concret (Microsoft traîne un certain nombre de boulets et de produits…disons décevants) au plus subjectif (ça fait tellement ‘fun’ de cracher sur la firme à Bill).

Et pourtant, pour tenter de rester impartial, Microsoft porte aujourd’hui un nombre d’atouts impressionnants dans son jeu… Derrière les interventions souvent exaspérantes de Steve Ballmer, un vrai travail d’équipe s’est amorcé depuis déjà quelques temps, et commence à porter sérieusement ses fruits. Avec les TechDays qui se sont terminées il y a quelques jours, l’occasion de faire un petit point d’étape…

Un socle enfin solide

Depuis MS-Dos, le métier numéro 1 de Microsoft est la conception de systèmes d’exploitation. Et pourtant, c’est sur ce métier que Microsoft pêche le plus depuis des années. Vista était immensément décevant, et même XP dont on parle aujourd’hui en termes élogieux a mis du temps à se stabiliser. Windows 7 semble aujourd’hui revoir la donne avec une solution qui a défaut d’être réellement innovante, amène un socle solide et qui fait une quasi-unanimité.

Bien sur, les Macophiles et Linuxiens resteront sur leurs positions, mais tous les autres ont trouvé leur eldorado : cela passera par Windows 7.

Un environnement de développement à la pointe

En tant que développeur Java, je ne peux que constater aujourd’hui la supériorité de .Net : la solution évolue d’une manière cohérente depuis 2001, et propose aujourd’hui un panel d’outils recouvrant à la fois le développements d’applications “riches” et d’applis Web. C’est à ma connaissance le seul environnement proposant une palette aussi riche et cohérente :

  • Du côté des applications riches, tous les autres acteurs ont aujourd’hui plus ou moins baissé les bras, Borland compris. Etonnant lorsqu’on pense que ces applications représentent encore aujourd’hui un immense marché (aurait on surestimé le monde des applis Web ?)
  • Du côté du Web, C#.Net propose une solution aussi solide que Java, plus conforme aux concepts objets que PHP, et aujourd’hui largement déployée. Seul bémol, et de taille : l’obligation de rester dans un environnement “Full MS”. Mais bon, c’est la stratégie du groupe, aussi…
  • Enfin, Microsoft est à la fois un acteur ralliant la cause de HTML5 (même si IE 8 reste décevant…) tout en se positionnant en tant que concurrent de Flash, avec Silverlight, solution convaincante mais qui n’a pas pour l’instant le succès mérité…

En résumé, Microsoft fait feu de tout bois (c’est pas nouveau) tout en gardant une offre techniquement cohérente (ça, ça l’est plus !), et Visual Studio 2010 conforte encore un peu plus cette situation.

Une offre mobile très prometteuse

Microsoft a fait sensation avec Windows 7 Mobile au dernier salon mobile de Barcelone : Windows Mobile était une catastrophe depuis des années, et la seule décision stratégique valable a été prise avec courage : tout revoir, de zéro, en particulier au niveau de l’interface. Prendre le risque de perder les “fans” actuels (mais en restait il ?), et partir à la conquête d’une cible qui avait tourné le dos à Microsoft depuis longtemps. Cible visée : iPhone et Android. Environnements de développement : Visual Studio, et Silverlight… Cohérence…

Avec une interface utilisateur réellement étonnante et une “vision” très différente de l’usage d’un téléphone portable, Microsoft la joue “quitte ou double” : au pire, c’est un échec, qui ne sera pas pire que l’enfer dans lequel s’enfonçait Windows Mobile. Mais au mieux, ça peut faire très mal. A suivre.

Dans les nuages ?

La tarte à la crème des journalistes du moment est de placer Google comme une sorte de “nouveau Microsoft”, les méchants à regarder avec méfiance. Google se fait le fer de lance de l’informatique “in the cloud”, avec des applications disponibles directement dans son navigateur.

Quelle est la position de Microsoft là dedans ? A la fois omniprésente et active.

Omniprésence bien sûr sur le marché des outils bureautiques “lourds”. A l’instar de Linux sur le marché des postes de travail, OpenOffice ne prendra jamais malheureusement une part de marché significative. Microsoft Office est là partout, et pour longtemps.

Du côté du Cloud, donc, la situation n’est pas encore très aboutie, mais il est certain que Microsoft cherche à se positionner partout, avec Microsoft Office Live, et surtout avec Azure, le système d’exploitation à haute scalabilité de Microsoft.

Mieux, Microsoft est aujourd’hui un des rares acteurs à proposer une solution “stable” sur le terrain des bases de données : le monde Open Source est aujourd’hui un peu brouillé avec un MySQL avalé par Sun puis par Oracle, et des projets prometteurs mais non encore aboutis sur le terrain des SGBD à haute scalabilité (tels que Cassandra, choisi récemment par Twitter). Sur les solutions propriétaires, Oracle est donc en pleine “digestion” de sa croissance externe, et DB2 est beaucoup moins présent. Résultat : un boulevard pour SQL Server !

Dans son salon

Si l’on regarde bien, Microsoft est le seul acteur majeur de l’informatique à être présent dans le salon du consommateur, avec la Xbox360 (si l’on fait abstraction de l’AppleTV, qui reste pour l’instant un gadget). La situation va peut être évoluer avec l’arrivée de l’iPad (bien qu’avec un positionnement complètement différent), mais Microsoft est aujourd’hui le seul, face à ses concurrents Sony et Nintendo, à pouvoir assurer une vraie cohérence entre les différents devices constituant une vie numérique (et la présence de widgets XBox dans la démo de Windows 7 Mobile est tout sauf un hasard).

Quand on sait que la R&D Microsoft est résolument orientée ‘home’ (la fameuse Microsoft Surface en tête), que la déclinaison du projet “Natal” pour le grand public risque de faire un malheur pour les prochaines fêtes de fin d’année, et que MS reste la marque la plus connue et la plus utilisée par le grand public, qui confond “Windows” et “informatique”, cette piste du grand public et de la multiplication des devices positionne Microsoft dans le peloton de tête…

Et maintenant ?

Etonnant de voir un Microsoft décomplexé avancer dans le bon sens et plutôt efficacement. Dans les rapports de force qui sont en train de se mettre en place, Microsoft n’aura sans doute plus jamais la place et la position ultra-dominante du marché. Mais si c’est pour la troquer contre une vraie plus value technologique et des produits de meilleure qualité… Affaire à suivre de près !

PS : coïncidence, Louis Naugès a publié au même moment que moi un article quasiment opposé, au moins ça fait un complément à mon point de vue 🙂

FAQ : les sorties du Mardi chez Apple

J’inaugure ici une rubrique “FAQ”, qui contiendra au fil des envies quelques thématiques sous forme de questions/réponses…

Comment sortent les produits Apple ?

En dehors du cas particulier des keynotes, le plus souvent, les produits sortent en ligne sur le magasin Apple, “l’Apple Store”, les Mardi. Pourquoi les mardi ? Pas de raison officielle, mais il y a fort à parier que ce n’est pas dû au hasard (sans doute un raisonnement style “on paufine les modifs en début de semaine, et on a ensuite toute la semaine pour gérer le rush”).

Quand exactement ?

En France, cela se passe en général vers 14h, histoire d’être synchro avec une ouverture en début de matinée en Californie. Parfois il se passe plusieurs mois sans rien, et à d’autres périodes, plusieurs mardi de suite sont “actifs”. Pas forcément évident d’avoir des grilles de lecture précises des plannings de sortie Apple, même si j’avais tenté d’ébaucher quelques pistes.

Pourquoi le “store” ferme t’il ?

La seule explication est technique : le Store d’Apple tourne sur WebObjects, un produit maison datant de l’époque du NeXT, et qui nécessite(rait?) d’être réinitialisé en cas de mise à jour de son contenu, à cause de son fonctionnement basé sur la notion de session.

L’autre raison est un besoin de synchronisation entre les différents stores du monde entier : hors de question qu’un nouveau produit apparaisse à Singapour alors que les américains ne l’ont pas vu.

Mais la vraie raison est plutôt : le “buzz”. Il suffit qu’un store Apple affiche quelques minutes la fameuse page “We’ll be back soon” pour que tous les fans s’excitent et ressortent les dossiers des rumeurs des semaines précédentes.

Combien de temps le store reste t’il fermé ?

Quelques dizaines de minutes, une petite heure. Mais il peut arriver que ça dure plus longtemps, sans lien avec l’importance du contenu d’ailleurs : la semaine dernière, la sortie d’Aperture 3, un logiciel peu grand public de retouche photo, a nécessité une fermeture du store pendant plus de 3 heures. Difficile de croire, une fois encore, que les raisons ne sont que techniques  : la fermeture d’un store aussi utilisé a probablement un coût non négligeable, et si Apple décide de le faire, il est possible que cela soit aussi pour rendre chèvre les “fans”, plus que pour des galères techniques.

Une belle leçon : comment faire du marketing avec une contrainte technique

Depuis le temps que les techniciens d’Apple s’empêtrent avec cette contrainte de “reboot”, ils auraient sans doute pu la corriger. Mais c’était finalement une bien meilleure idée d’en faire un symbole, un sujet de discussion qui permet à chaque fois d’envahir les blogs, Twitter…pour un coût marketing minimum ! L’idée pourrait difficilement être reprise à l’identique par un autre constructeur maintenant, mais il est certain que ce petit gimmick de la sortie du mardi jour un rôle non négligeable sur “l’importance” donnée artificiellement aux sorties de produits Apple.

Le marché des smartphones en pleine ébullition

Pas de revue hier, faute de temps, mais aussi parce que je ne voulais pas rater l’ouverture du salon Mobile World Congress, à Barcelone. Les rumeurs l’annonçaient riche en nouveautés, et pour une première journée, on n’a pas été déçu :

Microsoft revient sur le devant de la scène

On n’en pouvait plus de voir l’interface des Smartphone Microsoft s’enliser dans les diverses versions d’un Windows qu’on tentait de faire rentrer dans un mobile. Windows Phone 7 Series, qu’on a pu nommer Project Pink il y a quelques semaines, permet de remettre les pendules à l’heure, de la meilleure des manières : en repartant de zéro, ou presque.

Plus que des paroles, je vous laisse découvrir cette vidéo de présentation :

Difficile de jauger du succès à venir de ce téléphone, mais il faut avouer que l’interface semble réellement agréable. Pour causer 2 secondes d’interface utilisateur, le parti pris “Textes plutôt qu’icônes”, et surtout l’impression que l’interface dépasse la taille de l’écran, et qu’on scrolle élégamment dessus (un peu à la façon d’une présentation Prezi) est très agréable à l’oeil.

En dehors de l’interface en revanche, difficile de trouver une fonction réellement révolutionnaire : les téléphones attendront encore un peu pour pouvoir amorcer un prochain virage réellement innovant (un pico-projecteur ? des commandes vocales généralisées ?). A noter la liaison avec l’écosystème “XBox live”, justement mis en avant, et qui risque d’être parlant pour une certaine population (à quand le téléphone permettant d’embarquer son Mii Nintendo ??), et l’intégration poussée des réseaux sociaux.

L’interface met la notion de “People” largement en avant, permettant d’accéder indifféremment aux coordonnées téléphoniques du contact, à son réseau social, ou à ses photos. Ca, pour le coup, c’est plutôt bien vu : la notion avant l’application. On casse la logique “App” pour parler vraiment à l’utilisateur. Inattendu de la part de Microsoft !

En dehors de ces “détails”, on reste classiquement sur le terrain connu d’un “iPhone-like” : technos renfermées sur elles même pour privilégier la stabilité, pas de multitâche, pas de Flash, écosystème App+Musique.

La vraie question est : quid du timing ? Sortir un smartphone enfin agréable en 2010, dans un marché aujourd’hui dominé par l’iPhone et déjà coursé par des challengers aux dents longues, Android en tête, est-ce jouable ? On peut jouer sur les appuis et les accords industriels de Microsoft avec les fabricants de mobile pour permettre à ce Windows Phone 7 de décoller…

Meego : Nokia clarifie (un peu) sa stratégie

On sentait bien que Maemo était “le cul entre deux chaises” chez Nokia : marginal par rapport à Symbian, et pourtant annoncé comme étant l’avenir. Il fallait en fait un vrai coup de pouce pour en faire un projet majeur, et ce deal avec Intel pourrait être très judicieux : tout miser sur GNU/Linux, et défricher le marché des Smartbooks, des sortes de gros téléphones ressemblant beaucoup techniquement à de vrais ordinateurs…sans en être tout à fait vraiment, comme le sont les Netbooks.

On dépasse donc largement le marché des téléphones, pour atteindre celui de l’informatique “embarquée” : dans des gros téléphones, dans des petits ordinateurs, mais aussi en voiture, dans une TV… Marché excitant, mais qui n’a jamais vraiment donné de résultats jusqu’à maintenant. Meego est il une solution ? Peut être, si Nokia et Intel n’en font pas un marché “au cas où” dans lequel refourguer des projets auxquels ils ne croyaient plus beaucoup…

Samsung Wave : l’iPhone lowcost ?

Tous technophiles que nous sommes, n’oublions pas le marché des téléphones “grand public”, moins onéreux que les smartphones, mais pourtant encore très important en volume. Samsung, un des leaders de ce marché, semble beaucoup miser sur son “Wave”, basé sur un OS maison, Bada, disposant bien sûr d’un environnement complet pour les développeurs, il ressemble beaucoup à un iPhone “du pauvre”. Pas grand chose de neuf à se mettre sous la dent, donc, hormis qu’il risque de faire un malheur dans les magasins proposant des mobiles, afin de proposer un produit ressemblant le plus possible à l’iPhone… tout en coûtant beaucoup moins cher !

A noter que le Wave intègre un processeur maison, tout comme l’iPad avec l’A4. Tendance à suivre chez les gros constructeurs ?

Un marché rééquilibré

L’iPhone avait creusé une avance indéniable, en jouant au maximum sur l’effet de surprise que sait si bien entretenir Apple. Il a fallu du temps, mais la concurrence est aujourd’hui là, crédible, et faisant avancer les choses :

  • Android commence à arriver à maturité et Google montre peu à peu ses ambitions dans ce domaine. C’est clairement l’outsider numéro 1 d’Apple : presque tous les constructeurs intègrent aujourd’hui Android dans leur stratégie.
  • L’iPhone 4 arrivera en Juin, et est annoncé comme étant un grand pas en avant de la part d’Apple
  • Le retour dans la course de Microsoft est indéniablement une bonne nouvelle, surtout si les kits de développements suivent
  • Nokia va peut être finir par trouver son équilibre entre Symbian et Meego, le premier sur les produits grand public, et le second se focalisant sur des devices plus haut de gamme que de ‘simples’ téléphones.
  • Les autres acteurs suivent, et font découvrir les fonctions des smartphones pour le plus grand nombre

2010 ne va pas révolutionner le téléphone. Mais les pistes à suivre restent passionnantes, en particulier sur la réorganisation du marché : smartbooks, tablettes, proposent des alternatives au duo téléphone/smartphone qu’on avait jusqu’à maintenant. L’offre se multiplie et gagne en maturité, que demander de mieux !

5 règles pour mener de manière agile un projet informatique

J’interviens actuellement dans un certain nombre d’entreprises afin de les aider à mieux s’organiser et porter efficacement leurs projets, et la façon de “gérer” leurs clients. Je me suis aperçu à cette occasion à quel point des notions de bases sont pourtant peu connues. Voici quelques règles que j’ai pu donner lors de ces missions, en vrac.

Règle n°1 : vos cahiers des charges ne sont pas payés au poids ! Je sais que je ne donne pas le bon exemple sur ce blog, mais des gros blocs d’écritures bien verbeux n’est pas l’idéal pour forger un document de travail qui se doit d’être utilisé tout au long de la vie du projet.

Règle n°2 : impliquez vos clients ! On est entre nous, donc on peut le dire : clore une réunion client et repartir peinard sur son poste de travail est un vrai bonheur pour le développeur lambda…Et pourtant, trop espacer les réunions, perdre de vue le client, faire des “tunnels” de développement sans visibilité est la meilleure recette pour dévier, perdre du temps à implémenter un truc sur la base d’une incompréhension. Bref, le client, il faut qu’il soit là, même si c’est un peu lourd, même s’il faut le traîner par la peau du cou !

Règle n°3 : dessinez ! On n’a rien inventé de mieux que le schéma, le croquis, pour que le client se sente “chez lui”, qu’il comprenne ce que sera sa future application ou son futur site web, et ce, le plus tôt possible, avant de rédiger un lourd cahier des charges, avant de se lancer dans des maquettes.

Beaucoup ont encore trop souvent tendance à dégainer leur Photoshop pour concevoir ces premières maquettes. La maquette est en effet utile, mais elle n’est là que pour concevoir le look de l’application, mais certainement pas ses fonctionnalités ou son ergonomie !

Règle n°4 : livrez souvent ! Je suis étonné de voir le nombre de boîtes qui continuent à travailler sur des cycles “en cascade” (waterfall), où l’on va du début à la fin du projet selon une belle ligne droite, avec le postulat qu’il n’y aura aucun coup de théâtre pendant le développement. Les méthodes dites “agiles” étaient autrefois réservées aux projets dangereux et aux specs “glissantes”, on les voit aujourd’hui utilisées avec succès dans des environnements très divers.

Règle n°5 : pensez aux tests le plus tôt possible ! On sait tous que les tâches les plus rébarbatives (l’intégration du travail de différentes équipes, les tests, le débuggage…) sont le plus souvent reculées sur la toute fin des plannings… et sont donc fatalement bâclées, puisque les plannings étant quasiment tous “glissants”, les tâches ultimes sont souvent sacrifiées sur l’autel du livrable “dans les temps”.

Les méthodos “test driven” proposent une approche originale : pour ne pas bâcler les tests, concevons les dès le début du projet, et utilisons les comme documentation et “trame” à part entière. J’ai vu plusieurs cas de projets avec des règles métiers bien tordues sauvés par des tests écrits en amont, permettant d’avoir une transmission du savoir métier “par l’exemple”, et un outil de validation à la fois pour le codeur (qui va pouvoir vérifier l’exactitude de ses algos sans avoir à relancer le client) et pour le client (qui aura une base de tests toute prête lorsqu’il aura ses livrables).

La maquette n’est pas le prototype n’est pas le document client

Ne confondez pas ces éléments de base qui sont les amorces indispensables d’un projet informatique :

  • le cahier des charges, qu’il faut bien sur conserver, tout en lui faisant perdre au maximum son côté “verbeux”. certaines méthodos préconisent des “users stories” sur des feuilles au format A5. Bon moyen de faire au plus court…et souvent au plus précis !
  • la maquette : conçue par le designer, elle permet de concevoir le look de l’appli. Livrable : un .jpg ou un .psd, ou, mieux, une version imprimée et collée sur un carton au format A3
  • le prototype : c’est une première version du livrable des techniciens, des développeurs. A ce stade, le look de l’interface importe peu, le but est de vérifier la faisabilité de certaines fonctions techniques, avec un affichage pur texte.
  • et enfin, le mockup. Le mockup, c’est un “rough”, un dessin fait à la va vite de l’interface, mais qui va servir de document de travail pour concevoir l’interface utilisateur.

Souvenez vous : une maquette d’avion, c’est peint à la main, c’est joli, et ça se pose sur une étagère ! Un prototype d’avion, c’est moche, mais ça vole !

Le mockup est une vraie base de travail :

  • il permet au client de se représenter sa future application, de la manière la plus concrète qui soit
  • il permet au concepteur d’application de concevoir l’interface détail par détail, avec des logiciels permettant de concevoir et d’éditer ces fameux mockups
  • il disjoint complètement le travail de conception d’interface de celui de son look. Cela permet d’éviter les grands classiques du client se focalisant sur la couleur d’un bouton alors qu’on cherche à valider une liste de fonctionnalités.

Bref, usez et abusez du mockup !

Dernière notion, le wireframe : ce concept est une déclinaison du mockup, mais qui permet de représenter l’enchaînement d’un écran à l’autre (du style : “lorsqu’on clique sur ce bouton, on va sur tel écran).

Des logiciels à découvrir : Balsamiq Mockups, Protoshare.

Mon support de cours sur la conduite de projets informatiques.

Pour terminer : je n’invente bien entendu rien dans cet articles, les “best practices” qui y sont présentés étant tirées de quelques méthodologies populaires, à juste titre : eXtreme Programming, Scrum

Revue de la semaine

Bienvenue pour cette revue hebdo de l’actualité ! Comme d’hab, je vais faire une rapide relecture des différentes notes et liens que j’ai pu trouver cette semaine…

A noter que je ne suis pas le seul à suivre ce mouvement de la “revue du dimanche”, puisque mes amis Marie et Xavier s’y collent aussi !

Retour sur le flash forward : et le MacBook Pro ?

Je m’étais essayé la dernière fois à une “revue Flash forward“, pour tenter de défricher l’actualité à venir. Je ne m’étais pas trop trop planté (il faut dire que je n’avais pas pris de risques démesurés 😉 ), hormis sur la sortie des nouveaux MacBook Pro qui tardent toujours à sortir. On sait qu’ils ne devraient pas tarder, les précédents modèles datant un peu et les processeurs Intel de nouvelle génération étant prêts depuis un moment. On parle maintenant d’une sortie juste après le salon MacWorld, pour finir d’enterrer ce salon qui va déjà cette année bien souffrir de l’absence d’Apple.

Toujours sur ces MacBook Pro, des rumeurs un peu contradictoires arrivent sur le processeur utilisé : i7 ou i5 ? J’avoue de mon côté être un peu largué sur les nouveautés Intel, je me suis donc documenté, pour voir que finalement la nouvelle gamme, sur base d’architecture Nehalem, n’est pas très difficile à comprendre, puisqu’elle se découpe en trois modèles de puissance croissante :

Inutile de dire que, sur ces processeurs, la donnée principale n’est plus la fréquence de fonctionnement, tant les paramètres étant nombreux (dont l’apparition d’une mémoire cache de niveau 3 sur cette nouvelle génération).

Les plus sceptiques s’attendent à des MacBook Pro i5, alors que les concurrents s’alignent déjà sur la version mobile de l’i7. D’autres rumeurs annoncent l’arrivée de MB Pro i7 aux performances ébouriffantes. Impossible d’en savoir plus pour l’instant ! Wait and see donc sur cette future annonce très attendue chez Apple, puisque, de l’aveu même de Steve Jobs, la marque se centralise aujourd’hui de plus en plus sur ses devices mobiles (et pan pour ceux qui attendent les nouveaux Mac Pro…).

TedX Paris : les Français “comme les grands”

Je vous ai parlé à de multiples reprises des conférences TED, best-of incroyablement riche des plus grands penseurs de notre temps. Il existe maintenant des déclinaisons de ce concept, dont une journée à Paris, avec des intervenants francophones.

Je n’étais malheureusement pas sur place, mais j’ai pu suivre les conférences en direct, grâce à l’application iPhone qui permettait, comme ça s’était fait pour “Le Web” en décembre, d’avoir la vidéo live des intervenants sur son téléphone : génial !

Le niveau des conférences était, comme c’était prévisible, parfois en deçà de ce qu’on connaissait déjà des conférenciers anglophones. Certains restaient trop scolaires, d’autres manquaient peut être de préparation, mais je ne vais toutefois pas gâcher le plaisir de ce type de conférences : c’est toujours une belle occasion de s’aérer et de s’ouvrir l’esprit à d’autres cultures, d’autres compétences, d’autres façons de penser et de voir les choses. Le plus étonnant est encore de voir comment certains intervenants, aux antipodes de nos petites préoccupations, peuvent nous aider à voir les choses différemment. Je ne prendrais qu’un exemple, celui de Sarah Kaminsky, qui nous parle de son père, faussaire, qui fabriqua pendant des décennies des faux papiers pour les causes qu’il estimait juste. Une vraie leçon de vie !

Pour revenir à nos préoccupations plus “techniques”, je vous propose cette vidéo (qui n’est pas issue de TedX Paris) dont on reparlera, et qui est en train de faire le tour du monde. Une façon complètement disruptive et innovante de voir l’informatique de demain. Au delà de la vision, étonnante, du bonhomme, je reste subjugué par sa façon de recycler, de réutiliser du matériel existant pour en faire quelque chose qui va largement au delà de ce qui sort actuellement des ateliers “à la pointe de la technologie”. Un vrai Géo Trouvetou de génie !

Vous trouverez toutes les vidéos de l’événement sur le site de TedX Paris, et vivement l’an prochain !

Le retour de la bidouillabilité…pour le meilleur et pour le pire(2pire)

Les projets de lois sur la régulation du Net, que ça soit Hadopi, Loppsi ou encore plus inquiétant, n’ont pour moi que deux effets, tous aussi dépidants :

  • la nécessité d’action, et du financement d’action telles que la Quadrature du Cercle. Que d’énergie dépensée simplement pour tenter, le plus souvent en vain, de sensibiliser la population et les décideurs !
  • l’incitation à la bidouille, et pas toujours la meilleure, pour contourner ces lois.

Soyons clairs : les mailles des filets Hadopi et Loppsi ne vont attraper que les gogos. Tous les “pros” de ces pratiques, du pirate intensif jusqu’au pédophile, ne s’amusent plus aujourd’hui, sauf à être bien mal conseillés, à utiliser des réseaux P2P (“Pear to Pear”, comme j’ai pu le lire dans un journal récemment : ça milite au moins pour les “5 fruits et légumes frais par jour” 😉 ). Tous passent par des serveurs centralisés, localisés dans des lieux peu regardant juridiquement, et accèdent à ces serveurs par des canaux cryptés.

Si l’on rajoute à ça que le “cloud” permet de limiter tout stockage sur son disque local, voilà un constat accablant : le juridique pousse la technique à s’adapter pour obtenir au final une situation où les déliquants seront encore plus difficiles à attraper. Qu’on cherche ou pas à faire la chasse d’un petit jeune qui pirate son “film du soir”, c’est un débat, mais qu’on arrive à une situation où, clairement, les pédophiles et pédopornographes seront plus difficiles à repérer qu’aujourd’hui, simplement parce que tout est fait pour qu’ils se camouflent plus, me gêne plutôt.

Qu’on ne s’y méprenne pas : je ne risque pas de chercher à freiner la “bidouillabilité”, droit fondamental de l’informatique. Je trouve simplement choquant que la loi incite à des bidouilles risquant d’avoir l’effet inverse de celui espéré.

Pour terminer sur une note un peu plus positive, voici une bidouille plutôt sympa et qui est un joli “pied de nez” à l’Internet en mode “Minitel 2.0” et aux récentes actions de Google visant à avaler de plus en plus d’informations : une bidouille permettant, en quelques instructions sur son Linux préféré, d’héberger à domicile son propre serveur BIND, autrement dit, entretenir son propre DNS. Pas mal non ?

Réchauffement de la planète

Je terminerai avec cette news qui n’a rien de technique, mais qui ne peut que marquer : les warnings se multiplient sur le réchauffement de la planète, et sur la fonte des glaces de nos pôles. Je n’ai aucune envie de polémiquer sur les causes d’un tel réchauffement, mais en se concentrant sur les conséquences : on va là droit vers un très gros problème. Je n’ai malheureusement pas de solution à apporter, et je doute que de fermer le robinet pendant qu’on se brosse les dents y change grand chose, mais on ne peut rester sans savoir : voir l’info sur Yahoo Actus.

Votre avis please !

Je dépose un article juste pour connaitre votre sentiment sur un site sur lequel je suis tombé grâce à mon surf quotidien.

Le principe du site en question est simple :

– A l’aide d’une vidéo, un expert d’un domaine répond à une question posée par monsieur tout le monde

J’avoue de mon coté que je trouve le concept super intéressant et agréable à visionner. Ca remet en place le débat de la vidéo web pour répondre à une question ou traité un sujet précis. Mon binôme, JD, que vous connaissez bien à travers ce site est beaucoup moins enthousiaste que moi sur ce concept de vidéos comme support de communication efficace (je parle toujours dans la cadre d’une réponse à une question précise) .

Je souhaitais connaître votre opinion sur le sujet

Voici l’url du site :http://www.questionsdemarche.com/

Thanks

Cloud vs logiciel libre

On cause beaucoup de Richard Stallman ces temps-ci en France, grâce à la sortie de sa biographie (éditée sous licence libre chez Eyrolles). Drôle de bonhomme, ce Stallman : d’une droiture qui vire à la rigidité, il avait tout pour être le défenseur d’une cause apparemment aussi perdue : la lutte contre les brevets et autres verrous logiciels.

Un leader politique ?

J’avais écrit il y a quelques temps que Stallman n’était pas la bonne personne pour faire sortir le logiciel libre de son antre : le mouvement reste très en décalage avec la logique commune (“comment ça ? Vous voulez vivre en donnant votre travail ?”), et le représenter par un barbu chevelu qui ne dénaturerait pas dans un épisode de Capitaine Caverne, tout aussi rigoureux et doué soit il, ne me semble toujours pas une bonne idée.

Je vois les puristes hurler en disant que j’agite là drapeau d’une sale discrimination basée sur le look, et croyez bien que ça me désole, mais il n’y a qu’à voir les réactions du quidam qui voit passer Stallman à la télé. Je l’avais dit je ne sais plus où, le leader charismatique, maîtrisant parfaitement le levier politique, et qui arborera les mêmes valeurs que celles du logiciel libre, risque d’avoir un grand pouvoir entre ses mains (On m’avait suggéré le nom de Jimmy Wales, le fondateur de Wikipedia…. à suivre). Mais bon, Stallman est là, et on lui doit tellement qu’il serait malvenu de cracher dans la soupe…

Open source in the cloud

Aujourd’hui, le côté “Open source” au sens large (et souvent au sens moins “pur” que le souhaiterait RMS) est connu et reconnu dans la profession. Moins dans le grand public, bien sûr, car si les succès sont là (Firefox en tête), les subtilités et possibilités d’un code source ouvert passent, et c’est normal, un peu au dessus de la tête de Monsieur Toutlemonde.

La situation ne risque pas de s’arranger : la mode de l’informatique “in the cloud”, c’est à dire l’utilisation à distance de logiciels installés, administrés sur des serveurs distants, et que l’on utilise à la demande (Google Docs, pour donner un exemple), ne facilite pas le travail des évangélistes du logiciel libre ; en effet, la notion de logiciel perd ici tout son sens pour le simple utilisateur, puisqu’il n’a rien à installer, ni à acheter. Soit l’offre est gratuite, soit elle est assortie d’un abonnement qui représente en fait un droit d’accès à un service.

Ce cloud, les multiples services de Google en tête, ont finalement un intérêt : on y voit maintenant plus clair entre la position, pure et dure, du logiciel libre, et celle, plus permissive et “collaboratrice”, de l’open source. Google fournit énormément de code ouvert, et pourtant, son action est aujourd’hui perçue comme très éloignée des objectifs libristes au sens large du terme.

Qui est dans la place ?

En résumé, on pourrait distinguer aujourd’hui différents acteurs :

  • les purs et durs du logiciel propriétaire, tels que Microsoft, Apple, ou encore Adobe. Ces sociétés publient parfois du code source, mais toujours dans leur intérêt (par exemple pour démocratiser une technologie qu’ils ont lancé).
  • les acteurs du logiciel libre qui travaillent à une solution la plus large possible basée sur leur philosophie. Les divers acteurs du projet GNU/Linux, la Mozilla Fundation, l’Apache Fundation, OpenOffice, sont en tête de ce mouvement, avec des succès inégaux
  • et une troisième catégorie, inédite, d’acteurs “in the cloud”, qui basent souvent leurs solutions sur des briques libres ou open source, mais qui, de par la nature même de leurs services, restent ambigus sur leur degré d’ouverture : quoi de plus fermé qu’un serveur distant ?

Le code source fourni par Google est il de “l’open source washing” ?

On peut se poser la question. Google utilise en effet ce moyen pour se faire une crédibilité, à la fois technique (“regardez mes applis, elles tiennent la route”) et d’image. Mais si l’on regarde le software fourni par Google par le biais de leur vision business, ce cadeau ne vaut pas tant que cela : la “valeur logicielle” est en effet rangée au placard des business model du passé, au profit d’une valorisation du trafic généré, des données constituées en étudiant de manière la plus précise le comportement des utilisateurs.

C’est un peu comme si une entreprise gardait jalousement pour elle la recette secrète des macarons qu’elle commercialise, alors que d’autres militent pour que cette recette soit connue et publique, afin que chacun puisse faire des macarons chez soi. Et d’un coup, un type débarque, en disant “remplissez moi ce formulaire avec vos infos personnelles, et je vous donne tous les macarons que vous voulez, gratuitement !”. Comment, dans ces conditions, continuer à défendre la liberté d’utiliser la recette à sa guise ? Avec un double risque :

  • dénaturer complètement le travail aussi bien du concepteur de la recette que de ceux qui les fabriquent
  • dérive du mécène qui va ensuite utiliser à tort et à travers les informations qu’il a pu recueillir

C’est tout le paradoxe : beaucoup plus que Stallman, Google a contribué à forger l’idée que l’argent n’allait pas venir du logiciel, mais des services autour. Et pourtant, la société qui porte ce message est également une de celles qui inspire le plus la méfiance aujourd’hui. Presque jusqu’à rendre Microsoft sympathique !

Comme le souligne cet excellent article du Monde (qui m’a donné l’idée de faire cet article), on voit débuter là un vrai choc des cultures, qui s’aggrave de jours en jours avec des déclarations pour le moins pas très apaisantes..

Et Stallman dans tout ça ?

Stallman peut dignement porter son image de vieux sage ayant eu raison avant les autres : sans la rigueur de sa doctrine, le code source ouvert seul n’est qu’une partie de réponse, et peut dévier sur des comportements pires que ceux des “privateurs” des années 90.

Néanmoins, à l’ère de cette informatique très décentralisée, le combat est il le même ? On parle beaucoup ces jours ci de la neutralité d’Internet. De la liberté du software, on parle de plus en plus de liberté tout court, et de discours beaucoup plus politiciens que geeks. Stallman a souvent eu une position peu stable sur la “chose politique” : il a toujours lutté pour que son mouvement soit apolitique, et en même temps a souvent été aux côtés de mouvements dépassant largement le free software.

Pour toutes ces raisons et bien d’autres, il est indispensable de lire et (re)découvrir le parcours de cet étrange bonhomme, à la fois visionnaire et parfois le pire ennemi de sa propre vision..