L’effectuation dans la pratique

Cet article est la suite d’un premier article qui vous présentait le principe d’effectuation. Si vous ne l’avez pas encore lu, je vous conseille de commencer par celui-ci.

Résumons : nous avons donc posé les bases de la philosophie même de l’effectuation : ne pas attendre que le projet parfait vous tombe entre les mains, mais tirer profit de ce que l’on a sous la main pour pouvoir explorer des terrains jusqu’aux plus inattendus…

Accueillir les surprises

Vous commencez à le comprendre, cette façon de fonctionner fait beaucoup pour agrandir l’étendue du possible, et faire en sorte que des choses surprenantes puissent survenir. De toute manière, soyons honnêtes, n’importe quel projet apporte son lot de surprises. La différence est qu’ici elles sont non seulement bienvenues, mais même attendues. De la même manière que les méthodes agiles font en sorte d’intégrer l’impondérable, on va travailler ici de manière empirique :

pourquoi se raconter la fable d’un projet qui se déroulera sans accroc, et baser sa conduite de projet sur cette pensée magique, alors qu’il est finalement bien plus logique et sain de conduire dès le premier jour son projet en anticipant que ça va être le bazar.

Mais, on l’a vu, l’effectuation va quelque part encore plus loin que le lean puisqu’il n’y a pas ici vraiment de projet initial, mais plutôt une exploration de l’étendue du possible. Et c’est pourquoi les surprises sont particulièrement bienvenues, car ce sont finalement elles qui vont impulser vos actions. Les théoriciens de l’effectuation résument cette étape clé par cet exemple : “si on vous donne des citrons, vendez de la limonade !”.

Une opportunité inattendue, un feedback client, un accident de parcours, n’importe quel élément peut nourrir cette sérendipité !

Le chaos ? Oui, mais organisé

Tout ce qui a été décrit précédemment peut faire peur : on part sans projet, la fleur au fusil, on se laisse guider par des feedbacks qui peuvent être des plus inattendus, difficile au premier abord d’imaginer quelque chose de cohérent, de solide en faisant cela.

Et pourtant… cherchons à comparer une démarche classique, et la démarche d’effectuation :

  • dans une démarche classique, on part d’un projet, qui quelque part s’apparente à une vision : on émet des hypothèses de succès à long terme, puis on jalonne les étapes permettant d’y parvenir
  • avec l’effectuation, on part du recensement des forces en présence, et on se met de manière intense à l’écoute de son environnement pour “prendre la vague” d’une opportunité
  • dans un projet classique, on passe beaucoup de temps et d’énergie à résoudre les problèmes permettant d’accéder à l’objectif final, en particulier lorsque le projet a été imaginé sans tenir compte de ce que vous avez déjà à disposition
  • avec l’effectuation, l’énergie passée l’est pour nourrir des partenariats et accrocher des opportunités plutôt qu’à résoudre des problèmes pour parvenir à un objectif
  • gros point positif d’un projet “classique” : partager une vision permet de fédérer une équipe, de la motiver dans un but commun
  • dans le cadre de l’effectuation, le flou peut décourager ou faire peur. Mais l’adrénaline d’exécuter rapidement une action relative à une opportunité est le vrai carburant d’une équipe ainsi formée

Pour être clair : l’effectuation n’est pas une façon de procéder adaptée à toutes les situations.

Pour des projets lourds, les conduites de projet classiques sont robustes et ont fait depuis longtemps leurs preuves. Pour des projets nécessitant de la souplesse et de l’adaptation, tout en ayant un objectif fixé à l’avance, les méthodes agiles et le lean s’avèrent redoutablement efficaces.

Je pense qu’il faut plutôt voir l’effectuation comme une autre voie possible, un outil supplémentaire que l’on peut dégainer lorsque les circonstances s’y prêtent.

  • avant tout, l’absence d’un projet fédérateur : ça ne doit pas être vécu comme un point rhédibitoire, puisque des voies existent
  • l’opportunité de ressources ou d’une équipe déjà sous la main mais sous-utilisés
  • la volonté de découvrir un nouveau marché, ou d’explorer un terrain vierge

Enfin, il faut avoir conscience que ces façons de faire peuvent faire peur ou décourager certains, et au contraire stimuler de manière très puissante d’autres : il est donc indispensable de jauger l’état d’esprit des forces en présence avant de se lancer dans de telles aventures.

En revanche, je ne peux que vous inviter à expérimenter l’effectuation, à l’occasion d’une période de creux, que ça soit à titre personnel (vacances, chômage…), ou professionnel (inter-contrat ou creux dans son coeur de métier).

Envie d’expérimenter ? Parlons en ! J’ai eu l’occasion de pas mal expérimenter, et d’accompagner des équipes dans des expériences d’effectuation. Rejoignez nous dans l’exploration de ce nouvel univers !

Le Lean ne vous suffit plus ? Tentez l’effectuation !

Gros sujet aujourd’hui : lorsqu’on entreprend, en particulier dans un domaine qui exige de l’innovation, on se rend rapidement compte que des méthodes “classiques” de conduite de projet ne sont pas adaptées. On ne peut pas se contenter de s’organiser avec l’hypothèse que tout va se passer de manière linéaire, d’un point A à un point B.

La réalité est beaucoup plus chaotique et imprévisible. Se pose alors la question : faut-il renoncer à toute forme d’organisation, et laisser voguer le navire, ou bien chercher de nouvelles idées pour amener, de manière empirique, un cadre à ce qui peut s’apparenter à un joyeux foutoir ?

Lire la suiteLe Lean ne vous suffit plus ? Tentez l’effectuation !

Better done than perfect

J’ai croisé à de multiples reprises des projets qui stagnaient, ne parvenant jamais à respecter une date de sortie, sous prétexte de vouloir atteindre la perfection avant de sortir vraiment du bois.

Bien sûr, l’objet de ma réflexion du jour n’est pas de mettre en ligne n’importe quoi, ou de fournir au client des versions complètement buggées de ses outils.

Mais il ne faut jamais oublier une chose : dans le monde virtuel du numérique, rien n’est figé. Si une maison, une voiture est mal conçue, “buggée”, il y a de fortes chances que cela va entraîner de lourds travaux, et parfois remettre en question l’ensemble du projet.

Ce genre de situation est rare dans le domaine du numérique. Essayer, puis revenir en arrière, est le lot de tous les développeurs. Dans certaines méthodologies de conduite de projet, on enseigne même le “courage” de jeter du code, qui a deux vertus :

  • déjà, on s’est assuré d’avoir essayé
  • jeter puis réécrire, c’est s’appuyer sur son expérience pour refaire proprement, plutôt que de bidouiller un existant
  • enfin, on utilise la souplesse du numérique pour se dire que jeter n’est pas très coûteux ; dans des cycles de développement agile, on parle d’une journée au maximum.

Une perfection utopique

Se dire qu’on va atteindre la perfection lorsqu’on aura parfaitement exécuté un cahier des charges, c’est se fermer les yeux sur une composante essentielle : le feedback utilisateur.

Un cahier des charges n’est souvent qu’un ensemble d’hypothèses faites sur la potentielle adaptation d’un outil à un utilisateur. On peut tenter de s’approcher d’une forme de vérité en impliquant un maximum d’utilisateurs dès les phases de conception (c’est même fortement conseillé) ; en revanche, même avec une implication maximale, il y a fort peu de chances que l’on parvienne à l’outil idéal dès sa première version. Parce qu’on n’est jamais exhaustif. Parce que l’utilisateur n’a forcément qu’une image imparfaite de l’outil tant qu’il ne l’a pas entre les mains.

Ce constat pourrait être affolant. Plutôt que d’affoler, il est souvent ignoré, en rejouant pour la n-ième fois la comédie du cahier des charges parfait. Mais il pourrait bien mieux être pris en considération en appliquant le principe du “mieux vaut fait que parfait”.

Rome ne s’est pas faite en un jour

Facebook était loin de ressembler au Facebook actuel lorsqu’il est sorti dans sa première version. Il était très loin d’être parfait, ni même très conforme à l’idée même d’un réseau social puisqu’il n’était qu’une esquisse, codée à la va-vite sur un coin de table, pour noter le physique des filles de l’université où était Mark Zuckerberg.

Windows était loin d’être parfait dans sa version 1.0. Il était même catastrophique.

On pourrait reproduire ces exemples à l’infini. Et surtout les décliner à d’autres univers que celui de la création logicielle. N’importe quel Youtubeur vous dira que leur première vidéo était catastrophique.

Mais il y a un principe important : Ne jamais publier sa première vidéo, ou son premier jet, ou clore un projet dans sa première version sans attendre la perfection, c’est aussi ne jamais se donner la chance de faire un deuxième jet, une deuxième version qui tirera des leçons de la première. Et ainsi de suite.

Lorsque j’ai eu l’occasion de travailler avec des grosses structures, des administrations, je m’attendais souvent avec crainte à des organisations pesantes, à des processus tuant toute motivation et créativité. Mais en fait, très souvent, j’ai eu affaire à des gens très compétents, motivés, mais qui souffraient d’un défaut qui plombait leurs projets sans souvent qu’ils s’en rendent compte : le désir de rendre quelque chose le plus parfait possible.

Le numérique est l’idéal pour expérimenter

Dans un univers qui bouge en permanence, on est très souvent amené à faire du “jetable”, du temporaire. Parce que les délais sont contraints, parce que la ligne directrice est trop floue pour en faire quelque chose de solide. Plutôt que de subir une frustration d’avoir quelque chose de “jetable”, une bonne façon de voir les choses est de se dire qu’il s’agit simplement d’un essai, d’une première version que l’on sortira de la manière la plus souple possible.

Peut-être qu’il n’y aura pas d’autres version, mais peut être aussi que de cette expérimentation naîtra une nouvelle idée, ou une variation du projet qui finalement le fera aller de l’avant. Parce que l’on aura eu un feedback peu coûteux.

Certes, ce principe est plus facile à appliquer lorsqu’on effectue en travail en interne que lorsqu’on passe par un sous-traitant, une entreprise de services qui réalise le travail pour vous, et qui elle n’aura qu’une seule logique : celle de facturer au plus tôt, et donc de clore définitivement un projet au plus vite, quitte à ensuite faire des opérations de maintenance ultérieures qui seront facturées à leur tour. Mais de plus en plus d’entreprises du numérique se font à ces façons de procéder, ne serait ce que, comme on l’a vu plus tôt, c’est le mode de fonctionnement habituel des développeurs.

Devenir accro au feedback

Si je n’avais qu’une seule leçon à donner à mes étudiants en gestion de projet, ça serait de devenir un drogué du feedback. C’est la seule chose qui compte, et tous les projets devraient être conçus ainsi : comme des outils à délivrer du retour utilisateur.

Lorsque l’on met les utilisateurs dans la confidence de cette phase “expérimentale”, on s’aperçoit souvent qu’ils ne prennent pas mal du tout l’information, voire qu’ils peuvent se sentir presque flattés d’être impliqué ainsi dans votre projet.

Pour les personnes impliquées, délivrer à un rythme très fréquent sans chercher la perfection, c’est se donner la possibilité de “jeter” certains travaux sans vivre le traumatisme de mettre à la poubelle d’un coup des années de travail. Et ils vous seront redevables d’avoir pris la peine de recueillir du feedback le plus tôt possible.

Et pour le décideur, c’est l’outil parfait pour sortir de la “pensée magique” d’une vision hors sol qui devient une réalité à succès. On trouvera toujours des exemples où un entrepreneur a trouvé la formule miracle dans son coin, mais la plupart du temps, une vision ne se retrouvera que plus solide si elle est nourrie par un feedback conséquent.

Ce cher Steve Jobs, exemple type du dirigeant intuitif, disait souvent qu’il ne voulait pas s’appuyer sur l’avis de ses utilisateurs, en citant Henry Ford : “Si j’avais demandé à mes clients ce qu’ils souhaitaient, ils m’auraient parlé d’un cheval plus rapide”. Mais il ne faut pas oublier que, si Apple est effectivement parti d’une intuition, ou plutôt d’un pari (celui de l’explosion du marché de l’ordinateur individuel), le vrai succès de la firme s’est fait via de nombreuses sorties, plutôt fréquentes, qui ont permis d’affiner la stratégie de la marque pour aller vers quelque chose de vraiment conforme aux besoins réels de l’utilisateurs. Et, à moins d’avoir les moyens d’Apple, le meilleur moyen pour vous d’y parvenir est encore d’adopter la devise : Better done than perfect !

Vers moins de bullshit et plus de technologie humaniste : pourquoi la vague du tech backlash est une excellente nouvelle

Les entrepreneurs européens ont une chance incroyable : nous avons une boule de cristal à portée de main.

Si si ! Et pas besoin de Madame Irma pour cela. Il suffit de regarder ce qui se passe aux USA !

Même si cela fait parfois mal à l’ego de se le dire, il faut se rendre à l’évidence : une bonne partie de ce qui se passe chez nous s’est passé il y a quelques mois ou années aux Etats-Unis. D’une part parce que l’art du “copycat”, qui consiste à s’inspirer très largement de ce qui se passe de l’autre côté de l’Atlantique, a depuis longtemps fait ses preuves (les chinois en savent quelque chose), d’autre part parce que les Etats-Unis sont depuis longtemps bien plus actifs en ce domaine.

Lire la suiteVers moins de bullshit et plus de technologie humaniste : pourquoi la vague du tech backlash est une excellente nouvelle

L’après smartphone se profile. Mais à quoi ressemblera t’il ?

La présentation des nouveaux appareils photo, pardon, des nouveaux smartphones de chez Apple, lors de la traditionnelle présentation (on ne dit plus “keynote”, on dit “special event”) de rentrée, n’a pas vraiment passionné les foules, même si les investisseurs sont eux ravis de voir s’étoffer l’activité “services”, fort lucrative, de la firme.

Cela fait déjà un moment que l’on parle d’itérations successives : difficile, en étant objectif (même si les orateurs de chez Apple le sont fort peu), d’utiliser désormais à outrance le terme “révolution”, tellement les évolutions des téléphones intelligents se font maintenant à petits pas, certes assurés, certes parfois impressionnants de maîtrise technologique, mais sans grand chamboulement.

Lire la suiteL’après smartphone se profile. Mais à quoi ressemblera t’il ?

Qu’attendre de la nouvelle Apple Watch ?

Avec la publication il y a quelques jours d’une première photo soit-disant officielle de l’Apple Watch, on a maintenant confirmation d’une bonne partie des rumeurs entendues ces derniers mois. A quelques jours de la traditionnelle keynote de rentrée, c’est l’occasion de faire le point sur cette future quatrième génération d’Apple Watch.


Les nouveautés prévisibles

L’évolution la plus visible a été leakée par le scoop de 5to9mac : comme on le pressentait depuis déjà pas mal de temps, l’écran de la nouvelle Apple Watch sera sensiblement plus grand : à l’instar de l’iPhone X (et du futur iPad Pro ?), une meilleure maitrise de l’intégration de l’écran va permettre de rogner sur les bords, et d’obtenir un affichage plus volumineux tout en gardant un boitier de taille inchangée. C’est donc un bénéfice net pour l’utilisateur, d’autant plus que les applications actuelles de l’Apple Watch se sentent tout de même un peu à l’étroit dans l’écran d’1,5 pouces de la version 42mm. Apple devrait en profiter pour élargir la résolution (actuellement de 312 par 390 pixels), comme semble le montrer ce nouveau cadran qui bénéficie maintenant de 8 complications, nom donné par Apple aux petits widgets que l’on peut insérer sur le cadran de la montre. L’écran, déjà OLED depuis les débuts de l’Apple Watch, ne devrait en dehors de sa taille pas changer de technologie, d’autant plus que sa luminosité avait déjà nettement progressé sur les dernières générations. Les applications existantes, déjà conçues pour gérer deux tailles d’écran, devraient s’accommoder aisément de ces nouveaux écrans.

Le microprocesseur S3 devrait avoir son successeur cette année, même si la puissance des Watch séries 3 est déjà suffisante pour une bonne partie des applications actuellement disponibles sur la montre. 

On peut en revanche avoir quelques inquiétudes sur l’autonomie de la montre : la seule photo à disposition montre un boitier qui est peut-être plus fin, au pire identique, mais qui ne permettra probablement pas d’insérer une batterie plus volumineuse, la place à l’intérieur de l’Apple Watch actuelle étant déjà comptée.

Point important, et bonne nouvelle pour tous ceux qui ont lourdement investi dans des bracelets : le format de ces derniers semble inchangé. La présence d’une puce 4G est bien entendue également toujours d’actualité, avec un petit liseré rouge sur la molette de la montre qui est d’une sobriété appréciable après le gros point rouge des Watch 3.

Dernier détail technique : un trou supplémentaire semble laisser deviner un micro supplémentaire, qui sera bienvenu avec la nouvelle fonction talkie-walkie de watchOS 5 !

Les points d’interrogation

Le nuancier des produits Apple est toujours un sujet particulièrement subtil. On peut imaginer que la version « or » adoptera la nuance plus cuivrée que l’on a pu apercevoir sur la première photo de l’iPhone XS. 

Reste à savoir si cette nouvelle montre inaugurera une nouvelle matière, après l’aluminium et l’acier des premières générations, et la céramique apparue plus récemment. On se souvient par exemple qu’Apple avait investi il y a quelques temps dans le liquid metal, dont la seule application est jusqu’à maintenant le petit outil d’extraction de la carte SIM de l’iPhone. Mais une telle évolution semble hypothétique pour cette génération à venir.

Un des mystères restant à lever concerne la présence éventuelle de nouveaux capteurs : le nouveau cadran qui a filtré montre clairement une complication mentionnant les UV. On peut imaginer qu’un capteur serait dédié à cet usage, pour prévenir le propriétaire de la montre de risques excessifs liés à une surexposition au soleil. Mais cette donnée peut tout aussi bien venir d’une information récupérée en ligne, comme le fait l’app Météo actuelle de l’iPhone, qui donne déjà des indications de type UV. 

Quoiqu’il en soit, on connait les ambitions d’Apple dans le secteur de la santé, et ces projets devront forcément se concrétiser un jour ou l’autre par des évolutions sur les capteurs de l’Apple Watch, qui n’ont jamais évolué depuis le lancement de la montre en 2015. On pense en particulier aux projets autour des usages et besoins des diabétiques, qui découvrent depuis peu les joies des capteurs de glycémie sans avoir besoin de se piquer systématiquement. Ces applications, forcément destinées à un public restreint, pourrait toutefois amener un usage, et prouver une utilité, qui marqueraient les esprits.

Enfin, les rumeurs lancées cette année évoquaient un side button non plus physique, mais à base d’un mécanisme force touch similaire au bouton des iPhone 7 et 8. Peut-être un moyen pour Apple de gagner quelques précieux millimètres au sein du boîtier, tout en améliorant l’étanchéité et en limitant les pièces mécaniques, et les pannes qui vont avec.

Que faire de cette nouvelle montre ?

On le sait, la montre d’Apple, après des débuts délicats, est aujourd’hui un succès. Tout le monde s’est habitué à son look rectangulaire qui a surpris au début, et l’image de « gadget inutile » des débuts a su être estompée par Apple qui est passé d’une image très généraliste de sa montre à des « use cases » bien plus précis mais qui ont mieux parlé aux utilisateurs : un outil pour sportifs, pour nageurs, et de bien être.

Pourtant, on sent que le vrai potentiel de la montre reste encore à découvrir : les éditeurs se sont malheureusement découragés, perdus entre les évolutions d’un watchOS qui se cherche encore en terme de fonctionnalité mais aussi d’architecture technique, et après des premières tentatives d’applications qui se sont soldées par autant d’échec : applications mal conçues, premières versions de la montre peu convaincantes. Il va maintenant qu’Apple trouve la bonne formule pour faire revenir les développeurs, et ainsi donner une nouvelle dimension à la montre. watchOS 5 ne semble pas apporter de grande révolution, et c’est bien dommage.

Car on sent que la montre est maintenant suffisamment mature pour servir de socle a des ambitions plus grandes : avec une puissance de calcul suffisante, une indépendance vis-à-vis de l’iPhone via sa connexion 4G autonome, et maintenant un écran plus volumineux, il est temps que l’Apple Watch nous surprenne, et dépasse son image actuelle de « bracelet fitness de luxe ». D’autant plus qu’une Watch, avec une paire d’AirPods, pourrait tout à fait servir de base à une expérience inédite qui correspondrait au souhait de certains de se libérer de la dépendance au smartphone, en réduisant les interactions, tout en ayant sur soi en permanence les données dont on a besoin. Le wearable computing n’en est encore qu’à ses débuts !

Finalement, les robots ne vont (peut-être) pas tuer nos jobs

Une remarquable conférence TEDx datant de cet automne remet en question pas mal de discussions autour de la robotisation, de l’automatisation qui est de plus en plus présente. Nombreux, dont moi, affirment haut et fort qu’il faut se préparer à une chute spectaculaire des emplois dans le monde, le numérique nous amenant à automatiser de très nombreuses tâches : les emplois de caissières, de routiers, d’accueil à la banque, pour n’en citer que quelques uns, sont très objectivement menacés à une échéance de moins en moins lointaine.

L’économiste David Autor nous propose une lecture un peu différente : certes, la destruction d’emploi est inévitable. Pire, elle n’est pas nouvelle : entre la fin du XIXème siècle et maintenant, le travail agricole aux Etats-Unis est passé de 40% de la population à moins de 2%. Du point de vue du paysan de 1850, c’est une nouvelle terrible. Mais si l’on regarde les choses autrement :

  • la créativité et l’inventivité humaine qui a permis de réduire de 98% la main d’oeuvre tout en continuant à assurer la mission de nourrir son peuple est impressionnante
  • la chute de cette manne de travail a provoqué un malaise dans l’inadéquation entre formation et emploi, mais a aussi provoqué l’explosion (et le financement) des lycées américains qui permettent les emplois (et les compétences) d’aujourd’hui
  • force est de constater qu’il n’y a pas plus de chômage aujourd’hui à l’époque. En revanche, la plupart des métiers actuellement pratiqués n’existaient pas, et n’étaient même pas imaginables à l’époque. Qui aurait pu à l’époque décrire le métier de développeur web, de prof de yoga, ou de dresseur de pokémons ?

Un autre aspect intéressant de la conférence, même s’il est moins surprenant -et bien moins positif- est le fossé qui se creuse entre la main d’oeuvre hautement qualifié, et celle non qualifiée. L’automatisation va en effet s’attaquer pour bonne partie aux activités d’une certaine “classe moyenne”, ne laissant champ libre, si l’on ne fait rien, qu’à des ingénieurs, ou de la “petite main” qui sera chargée de ce que les robots ne savent pas faire. Pas très réjouissante projection !

Les concepts tels que le revenu de base nous amènent à nous préparer à une chute drastique du nombre d’emploi. Mais réfléchir AUSSI avec d’autres perspectives est important, et le point de vue pondéré, réfléchi et argumenté de ce professeur est bigrement intéressant. A voir !

Coup de gueule d’un Macophile perdu

Mon premier Mac était un Powerbook 12 pouces. Je ne suis donc pas un macophile de la première heure, mais ça fait maintenant 12 ans que j’ai abandonné, sans aucun regret, l’univers des PC.

Pour moi, la découverte du Mac, avec à l’époque OSX 10.3, c’était un cocktail unique entre simplicité d’usage, stabilité, accès aux applications les plus courantes, et univers Unix. Pour le Linuxien que j’étais, c’était le parfait compromis entre robustesse et simplicité : je trouvais enfin mon outil de travail qui me permettait de travailler au quotidien sans avoir à me soucier de la moindre bidouille, tout en profitant d’un environnement bien plus cohérent que ce qu’offraient les PC de l’époque.

L’aspect matériel n’est pas pour rien dans le plaisir d’utiliser un Mac : finition parfaite, puissance matérielle, et parfaite cohérence software/hardware. Bref, quelque chose d’équilibré, de pensé pour l’utilisateur.

Pour la première fois, à l’issue de la keynote d’hier présentant la nouvelle génération de MacBook Pro, mon premier réflexe n’a pas été d’étudier le détail des fonctionnalités de la bête, mais.. d’aller voir l’offre concurrente. Asus, HP, et il faut bien admettre que la comparaison est cruelle.

Un catalogue incohérent

Certes, le prix excessif des Mac n’est pas une nouveauté : ça fait longtemps qu’on sait qu’ils sont vendus à prix d’or, que l’utilisation quasi systématique d’adaptateurs est agaçante, et que les performances ont été plus d’une fois sacrifiées sur l’autel du design, avec la course au plus châssis le plus fin. Mais on a atteint là des sommets d’incohérence et d’offre en décalage avec les besoins.

Si on regarde le catalogue actuel des Mac portable, voici ce qu’on a :

  • une entrée de gamme portable constituée d’une machine de 2013, le MacBook Air 13 pouces, largement au dessus de 1000 euros (1 099), et doté d’un écran inacceptable au vu du prix (sans parler du stockage minimaliste…)
  • une “vraie” entrée de gamme, le MacBook, au prix inaccessible pour un usage “d’entrée de gamme” (1 449 euros), et aux performances anémiques. L’utilisation d’un CPU m3 est un scandale au vu du prix. J’imagine que le futur de cette entrée de gamme passera par un CPU ARM/Apple, en attendant, ça reste une machine bancale, qui montre le futur sans doute, mais sans permettre de l’atteindre
  • un MacBook Pro tellement cher qu’il est proposé en trois points d’entrées : l’ancien MacBook Pro, qui serait une bonne affaire si son prix avait un peu baissé (ce n’est pas le cas) ; le nouveau MacBook Pro mais sans TouchBar, à l’intérêt très limité d’autant plus que son électronique est au rabais. le “vrai” nouveau MacBook Pro qui est diablement séduisant, mais avec un ticket d’entrée délirant.
  • Le MacBook Pro 15″ est finalement le plus cohérent, avec des tarifs élitistes, mais destiné à une clientèle élitiste.

Bref, la gamme est illisible, avec d’anciens modèles indécents dont la présence n’est liée qu’au prix, et d’autres modèles qui sentent fort la phase de transition.

Et je ne parlerai pas de la gamme “bureau” des Mac, qui est aujourd’hui complètement scandaleuse et inadaptée : qui va acheter aujourd’hui un Mac Mini pas mis à jour depuis plus de deux ans ? Un MacPro inchangé depuis plus de trois ans ? et même un iMac qui, bien qu’un peu plus récent, mériterait sans doute un upgrade…

Un nouveau modèle contestable

Quant au nouveau MacBook Pro.. il est “parfait” au sens de la finition, de la conception, comme d’hab j’allais dire. Mais de là à dire qu’il est irrésistiblement attirant…

J’ai le temps de changer d’avis, mais la Touch Bar me semble un gadget plus qu’autre chose : tout utilisateur d’ordinateur travaille à savoir taper au clavier sans avoir à le regarder. Quelle est la logique ergonomique de faire un retour en arrière sur ce point ? Et le caractère éphémère, en perpétuel changement, de son interface, risque de pas mal perturber. Ne pas avoir la certitude d’avoir à portée de main les touches de réglage du son, par exemple, me contrarie, personnellement. De plus, la plupart du temps, les raccourcis proposés sont les mêmes que ceux disponibles à un clic de souris. Bref, ça risque d’être une solution un peu bâtarde :

  • pour les fans du clavier, on perd le côté “usage sans regarder le clavier”, et la certitude de pouvoir utiliser ses raccourcis habituels
  • pour les afficionados de la souris ou du trackpad, l’intérêt de jongler entre souris et clavier laisse dubitatif
  • pour tous ceux qui vont utiliser un clavier/écran déporté une fois au bureau (soit, par exemple, 99% des postes faisant de l’édition vidéo), cette solution apparait complètement inutile

Cette Touch Bar est clairement une réponse compatible avec le “dogme” qui prédomine chez Apple depuis Steve Jobs : un écran d’ordinateur ne doit pas être tactile. Le récent Surface Studio de Microsoft, qui pourrait être un lointain successeur du génial iMac G4, montre qu’il est possible, d’un point de vue matériel du moins, de bénéficier des deux mondes, avec une réelle envie d’innovation, de prise de risque.

La disparition du MagSafe me contrarie beaucoup : je ne compte pas le nombre de fois où j’ai sauvé mon Mac d’une mort certaine grâce à cet astucieux connecteur. Et puis, dans les multiples petits détails qui faisaient (quelle tristesse de devoir parler à l’imparfait) la différence : il n’y aura plus désormais de petite LED sur le connecteur pour signaler s’il est bien enclenché, si l’ordi est en charge… Seule consolation : on va pouvoir rapidement pouvoir alimenter son Mac avec des chargeurs qui seront probablement moins onéreux, et plus solides, que ceux fournis d’origine.

Mais ce n’est pas la seule frustration ; plusieurs détails montrent l’incohérence totale de la politique d’Apple concernant les connecteurs :

  • impossible de recharger une Magic Mouse sans adaptateur, puisque le câble fourni avec la souris est en USB
  • impossible d’utiliser des écouteurs Lightning pourtant sortis il y a moins d’un mois, puisqu’aucun port Lightning n’est présent

Alors, bien évidemment, la politique d’Apple de forcer à un nouveau standard, et c’est sans doute leur rôle, au vu de leur puissance. Mais forcer DEUX standards simultanément, incompatibles entre eux, est complètement aberrant.

Des performances déjà dépassées

Mais le plus gênant est de devoir se coltiner des performances d’arrière garde :

  • DDR3 pour la RAM,
  • CPU avec une génération de retard,
  • GPU disponible uniquement sur la version 15 pouces, avec des performances déjà contestées,
  • caméra frontale en 720p, alors que même un “simple” iPhone 7 propose du 1080p

“frustration” est un mot faible lorsqu’on se retrouve à acheter une machine hors de prix, qui vient de sortir, tout en sachant qu’elle a déjà un train de retard. Finalement, seuls les connecteurs, en Thunderbolt 3, sont pleinement d’actualité. Mais quel intérêt de proposer une machine avec 4 ports Thunderbolt-3 si c’est pour ne pas pouvoir exploiter les capacités, par exemple, de deux écrans 5K connectés simultanément, faute de puissance suffisante ou de GPU absent ou anémique ?

Un modèle classique de chez HP propose aujourd’hui, à tarif équivalent, des performances et un équipement autrement plus complet et à la pointe des technologies disponibles actuellement.

Même le design n’est pas spécialement enthousiasmant : certes, on reprend ce qui était déjà un progrès du côté du MacBook (le clavier “papillon” en tête), certes le trackpad agrandi sera confortable, mais les bords noirs autour de l’écran, pour ne reprendre que cet exemple, sont toujours aussi épais, là où d’autres constructeurs arrivent à des miracles. On aurait pu rêver d’un 14 ou 15 pouces dans le châssis du 13… ça ne sera pas pour cette fois.

Et maintenant ?

Bref… je ne me reconnais pas dans ces nouveaux produits. Jusqu’à présent, les Mac étaient des merveilles technologiques, des outils très pragmatiques pour l’informaticien que je suis, tout en apportant un gros plus en terme de design qui était appréciable. Ce que Steve Jobs avait décrit dans une keynote par “The power AND the sex”. On le sentait depuis un moment, tout ceci n’est plus désormais qu’une affaire de design. Sans même parler de la fermeture totale du matériel, n’importe quel argument rationnel pousse à abandonner le Mac. N’importe quel argument, sauf bien sûr MacOS, que je ne peux pas m’imaginer quitter.

Qu’espérer pour la suite ? Je me prends à espérer que le MacBook d’entrée de gamme soit rapidement boosté par un processeur ARM. Il y perdra en versatilité, mais au moins il pourra bénéficier de la puissance qui est disponible dans les iPhone et iPad. Et peut-être cela sera-t’il le premier pas vers des appareils hybrides pouvant faire fonctionner des apps Mac ET iOS dans un même environnement.

Mais plus ça va, plus je finis par me dire que la vraie réponse, pertinente, innovante, ne pourra pas venir d’Apple, ou du moins de l’Apple d’aujourd’hui, complètement orienté design et marketing, avec plus personne pour être la “conscience client”, rôle que jouait Jobs à merveille dans l’entreprise. Un article récent affirmait que Tim Cook était le Steve Ballmer d’Apple : un gestionnaire capable de faire exploser le chiffre d’affaires, mais sans aucune vision produit, laissant la porte ouverte à des initiatives internes nombreuses mais incohérentes et au final ne menant pas à grand chose. Je déteste glisser dans le “c’était mieux avec Steve”, mais il est aujourd’hui difficile de ne pas faire ce constat…

 

Comment Twitter pourrait devenir un bien commun

Les commentateurs n’en finissent pas d’étudier le déclin de Twitter. Non pas que le service en lui-même décline, il n’a jamais été autant populaire. Mais d’un point de vue financier, il pose clairement de plus en plus de problèmes. Les deux griefs les plus relevés sont :

  • l’absence de croissance exponentielle. Le service croît, mais sans une poussée stratosphérique comme on pourrait en rêver pour une startup
  • la difficulté de trouver un modèle économique. Chaque rajout fait prendre le risque de perdre le socle d’utilisateurs, qui sont très attachés à la simplicité de l’outil.

Mon propos est dévoilé dès le titre de cet article, je rentre donc dans le vif du sujet : à mon sens, Twitter devrait rendre son socle de base public, le confier à la communauté, pour se recentrer sur ses activités à valeur ajoutée.

Absurde ? Irréaliste ? Peut-être. Mais si on regarde les données du problème, on s’aperçoit qu’au final, la position dans laquelle se trouve actuellement ce réseau social est encore plus absurde.

Un modèle économique délicat à trouver

Tous les spécialistes le savent : Twitter se cherche depuis des années une stratégie d’évolution. Là où Facebook crée de zéro un univers qui lui est propre, ce qui lui permet une créativité sans limite, Twitter a fait de la simplicité extrême de son service sa marque de fabrique. Ainsi, c’est pour bonne part par la capacité à ses utilisateurs de s’approprier l’outil en en inventant les règles que Twitter a eu du succès. Et cela n’a été possible que par la simplicité extrême de l’outil. Les retweets, la plupart des hashtags ont été inventés par les utilisateurs eux-même.

Ainsi, chaque modification du cahier des charges peut prendre des proportions démesurées (on se souvient par exemple des multiples rumeurs sur l’extension de la taille maximale d’un tweet).

C’est ainsi qu’il est devenu, au fil des ans et des habitudes des utilisateurs, de plus en plus délicat d’introduire un modèle économique, des fonctions rémunératrices, pour l’opérateur.

Twitter exige une infrastructure très importante pour pouvoir fonctionner : certes les messages sont courts, mais le temps réel impose un fonctionnement délicat à maintenir, et d’autant plus avec une charge utilisateur importante. D’où l’importance de pouvoir faire rentrer beaucoup d’argent, sans même parler de rémunérer les actionnaires, mais simplement de faire vivre le service.

Après de nombreuses tentatives avortées, Twitter n’a jamais vraiment trouvé d’autre modèle économique que l’ultra classique « tweet sponsorisé ». Mais même ce modèle là est difficile à mettre en place, ne serait ce que par le modèle « timeline » de Twitter : un tweet n’a pas vocation à rester sous le nez de l’utilisateur, mais va s’évaporer très rapidement derrière d’autres tweets plus récents. Pas l’idéal pour vendre un support pub !

Une stratégie castratrice pour l’écosystème

Et pourtant, Twitter avait la possibilité d’ouvrir largement plus la créativité et les modèles de rémunération, en ouvrant sa plateforme à d’autres acteurs. Malheureusement, ce modèle a très rapidement dû être freiné : Twitter devant assumer la charge de sa plateforme, s’ouvrir à d’autres s’avérait un vrai-faux ami. C’est ainsi que dès 2010, les règles du jeu évoluèrent en défaveur des acteurs gravitant autour de Twitter, brisant de nombreux modèles économiques et bridant Twitter en le recentrant sur sa maison mère.

Cette situation assez paradoxale, où Twitter s’est mis à appuyer fortement sur le frein de l’évolution de son écosystème, ne s’explique que par la nécessité de maintenir son infrastructure, et la peur de partager un monopole, tout en amenant le paradoxe de fortement freiner la popularité et l’engouement vers le service.

Un fonctionnement opaque dangereux pour la liberté d’expression

Une chose est sûre, et fait l’importance de Twitter : le réseau social est devenu un canal incontournable de diffusion de l’information. On ne présente plus le rôle qu’à pu jouer cet outil dans les révolutions arabes du début des années 2010, ou dans la façon de communiquer des politiques, officiels comme dissidents, d’aujourd’hui.

Néanmoins, la question se pose de plus en plus : est-il vraiment raisonnable de confier un canal crucial dans la communication internationale à une entreprise privée entièrement contrôlée par ses actionnaires, sans aucun système de contrôle de ses règles internes ? Ainsi, les polémiques se multiplient sur des censures arbitraires de tweets ou de comptes utilisateurs qui se retrouvent fermés pour des raisons parfois obscures.

Un modèle existe : Usenet

Cet article, comme vous l’avez compris, pose la question d’une hypothèse où Twitter migrerait sur une plateforme ouverte, et gérée collectivement par la communauté. Ce scénario, peut être un peu irréaliste, aurait pourtant de nombreux avantages :

  • plus de coût d’hébergement
  • plus de centralisation des données
  • des fonctions de base gérées par la communauté, selon des règles et une gouvernance transparente
  • la société Twitter se reconcentrerait sur les services à valeur ajoutée, en ouvrant complètement l’écosystème, en s’exposant certes à la concurrence, mais en se libérant de contraintes arbitraires qui n’étaient dictées que par la nécessité de maintenir l’infrastructure de base du service.

Reste, dans ce scénario utopique, la question du « comment ». Les plus anciens s’en souviennent peut-être : avant même l’apparition du web, et encore plus des forums de discussion, les échanges sur Internet se faisaient via des newsgroups. Techniquement, on parlait de Usenet, standard conçu collectivement, et qui fonctionnait par un système totalement décentralisé, avec un mécanisme de réplication des données assez sophistiqué pour l’époque.

Pour dire l’importance de Usenet, le projet de World Wide Web conçu par Tim Berners Lee a été annoncé sur Usenet ! Idem pour Linux, et pour de nombreuses autres annonces très structurantes pour ce qu’est devenu Internet aujourd’hui.

Malheureusement, Usenet est devenu assez rapidement désuet, son usage étant bien plus complexe que ne peut l’être le web.

Néanmoins, Usenet est la preuve qu’une infrastructure d’échange de messages peut être maintenue de manière décentralisée, collective…et bénévole. Là où Twitter coûte un argent phénoménale en frais d’infrastructure.

Délirant ? Pas tant que cela

L’idée de proposer à une structure commerciale, cotée en bourse, tenue par ses investisseurs, de basculer le coeur de son activité dans le domaine du bien commun peut apparaître au mieux comme une douce utopie, au pire comme une stupidité sans nom. Et pourtant…

La seule issue proposée à Twitter aujourd’hui est celle du rachat. Est-ce moins dangereux ? Certes, pour les actionnaires, c’est le moyen de s’en sortir avec une plus value correcte, à défaut d’être le truc extraordinaire auquel ils étaient en droit d’attendre en misant sur un des trois réseaux sociaux les plus connus sur la planète.

Mais on sait d’avance que, suivant le nom du racheteur, le destin de Twitter peut prendre une tournure très différente, et pour le moins hasardeuse. Un Facebook aurait tout intérêt à diluer la masse d’utilisateur dans son propre écosystème. Un Google serait sans doute moins intéressé par la pérennité financière de l’outil, mais beaucoup plus par l’exploitation des données qui pourrait en être fait.

A l’inverse, rendre le socle de Twitter commun aurait un certain nombre d’avantages : il permettrait d’ouvrir sans frein stratégique la créativité, l’inventivité, la richesse des écosystèmes qui viendraient s’y greffer. Comme on l’a vu, Twitter a été très rapidement contraint, pour des raisons purement stratégiques, de fermer ce robinet là, pour favoriser sa propre valorisation. Avec un tel renversement de la logique, il aurait tout intérêt au contraire de se lancer dans la bataille de surcouches à ce Twitter minimaliste, pour y rajouter toute la valeur ajoutée qu’ils ont en projet.

Est-ce pour autant possible ? Probablement non. Jamais un board d’investisseurs n’a accepté la logique d’ouvrir intégralement sa base d’utilisateurs, pour se recentrer sur la valeur ajoutée qu’il pourrait tirer de l’exploitation de cette base. Et pourtant, à l’heure où le risque de perdre Twitter, de perdre, ou de voir complètement dévoyé, ce canal de communication aujourd’hui indispensable à beaucoup, peut-être est il question de se poser toutes les questions, tous les scénarios possibles.

Et quand bien même. A défaut de rêver à voix haute d’un Twitter communautaire, on pourrait peut être en tirer des leçons pour les projets qui restent à lancer dans les années à venir…

Molotov TV : perfectible

J’attendais avec impatience l’arrivée du projet Molotov.TV, qui fait parler de lui depuis déjà plus d’un an : on savait que la gestation était longue, en particulier à cause des négociations juridiques avec les ayants-droits.

Les forces en présence sont impressionnante : Jean-David Blanc (un jour, les Jean-David domineront le monde…), l’ancien fondateur d’AlloCiné, Pierre Lescure, qu’on n’a plus besoin de présenter. L’association entre un entrepreneur solide et un carnet d’adresses indépassable. Sans doute la meilleure recette pour tenter de changer la donne dans le domaine complexe de la diffusion TV.

Ca fait en effet plusieurs années que tous ceux qui ont tenté d’aborder le sujet des flux TV se sont cassés les dents ; toutes les réussites l’ont été dans des domaines de création de nouveaux supports, YouTube en tête. Mais à aucun moment le domaine de la diffusion classique n’a été vraiment impacté, et ce pour une raison majeure : les droits de diffusion, et la capacité des acteurs en place de tout faire pour maintenir leur positionnement, en ne l’ajustant qu’à la marge.

Il y a toutefois une évolution importante qui existe depuis quelques années : le catchup TV, cette fonction qui permet de revoir, pendant une courte période, une émission de TV. Bien que populaire, cette fonction n’a pas vraiment évoluée depuis ses débuts (hormis pour l’insert de pubs de plus en plus lourdes…), et surtout n’a en rien impacté le fonctionnement habituel d’une télévision “broadcastée” : un flux continu d’images, structuré autour d’une grille de programmes indémontable. Si on veut se tenir informé, il faut être devant son poste à 20h00.

Molotov.TV s’est fixé comme mission de casser ce moule et de déstructurer, délinéariser ce flux TV. On reprend les contenus, mais on les extrait de leur grille de programme et on donne un accès libre et naturel qui mime ce qu’on connaît sur les médias “alternatifs” que sont Youtube ou Netflix : on peut rechercher par catégorie, par mots-clés, commencer un programme, le reprendre plus tard, etc…

Après près d’un an de beta-tests, l’application est de sortie, et est (ou sera au cours des prochaines semaines) disponible sur de nombreuses plateformes : Mac et PC, mais aussi iPad, AppleTV, Android, iPhone, Samsung SmartTV… Pour être clair, j’attendais la sortie de ce service depuis longtemps, et je suis un peu déçu par ce que je découvre. Mais le plus désappointant est que j’ai très peu de choses à reprocher à Molotov.

Un challenge très complexe : les droits d’accès

Pour “délinéariser” les contenus TV, le challenge de Molotov était de mettre à disposition de manière interactive trois types de contenus amenant chacun leur lot de complexité :

  • les contenus du passé, pour faire un ‘replay’ comme le font les applis et sites actuels de Catchup TV
  • les contenus en direct, tels qu’ils sont broadcastés par les chaines de TV
  • les contenus du futur, qui sont annoncés dans les grilles de programmes

MolotovTV propose une application unique rassemblant ces trois cas dans une interface plutôt très bien foutue, intuitive, fluide et élégante. On se promène dans une base de données unique regroupant les programmes passés, présents, et futurs, et, suivant le contexte, on y accède simplement. L’app est fluide, l’image de relative bonne qualité, et le mode premium permet d’accéder à du contenu en haute-définition. La montée en charge semble gérée correctement, les ingés en charge du projet ont bien bossé.

Malheureusement, tout ceci est (pour le moment ?) fortement contraint par les restrictions imposées par les diffuseurs de contenu. Les équipes autour de Pierre Lescure ont réussi presque l’impossible : réunir tous les acteurs français (à l’exception du groupe Canal+) pour mêler les contenus de TF1, France Télévisions, M6… dans une même interface. Rien que ça est un exploit louable. Malheureusement, tout est dans le mot “presque” : chacun des acteurs est venu en apportant de nouvelles restrictions, rendant au final l’expérience utilisateur plutôt décevante.

Du live réussi

Les contenus ‘en live’ sont plutôt bien intégrés : on passe de manière fluide d’une chaîne à l’autre, un écran présente de manière élégante la mosaïque des programmes. Il manque encore une intégration plus poussée des programmes (quel est le programme suivant par exemple), et des bonus techniques qu’on a appris à apprécier sur d’autres supports, tels que le “picture-in-picture” permettant de surveiller un programme pendant qu’on en regarde un autre.

molotov2
Les programmes en “live” sont présentés d’une manière agréable et inédite pour un consommateur de contenus en France

La fonction “magnétoscope” n’est pas encore disponible, mais on peut imaginer que tout ceci va évoluer dans les semaines à venir. Pour un peu, on parviendrait à en oublier complètement le broadcast habituel (je continue à regarder chez moi la TV via la TNT classique) pour passer sur ce mode de visualisation un peu plus interactif. Bien entendu, les contenus français ne sont disponibles qu’en France.. mais on finit par avoir l’habitude de ce genre de restriction.

Un replay quasi-inexistant

Les contenus “passés” sont en revanche ceux qui souffrent le plus des contraintes des diffuseurs. La promesse était la suivante : on se balade dans l’ensemble des programmes TV de toutes les chaînes, et on s’affranchit de la contrainte du direct pour pouvoir consulter un programme même si on l’a loupé.

La réalité est malheureusement beaucoup plus contrainte :

  • déjà, TF1 et M6 ont refusé d’intégrer leur replay à Molotov. Rien n’est disponible donc pour ces chaînes, ainsi que pour les chaînes de ces groupes (et ça commence à faire : W9, 6Ter, TMC, HD1…). En gros, on n’a accès au replay que pour les chaînes de France Télévisions. Aouch !
  • De plus, le replay de ces dernières chaînes reste limité par diverses contraintes de droit. Ne comptez pas par exemple visualiser un film en replay.
  • Enfin, le replay n’est disponible que pour une très courte période (7 jours la plupart du temps). Mais on retrouve là la contrainte classique des systèmes de catchupTV.

molotov3
Sur les programmes de France TV, on a sur le même écran les programmes passés et futurs. Il semble possible de bookmarker (et donc enregistrer) certains programmes passés, mais ça reste encore flou

Concrètement, pour regarder l’Amour est dans le Pré (oui, je regarde l’Amour est dans le Pré, je fais ce que je veux !), j’ai dû ressortir l’app 6Play (sur mon iPad bien sûr, elle n’est pas dispo sur l’AppleTV). En gros, si vous n’anticipez pas (via la fonction bookmark que je décris dans le paragraphe suivant), vous avez de fortes chances de louper votre programme. Difficile de ne pas être déçu.

On peut imaginer que la situation évolue si le service prend du poids. On peut également espérer que d’autres fonctions de location (payante) de contenu arrivent à terme sur le service. Mais là aussi, les acteurs déjà en place n’accepteront probablement de partager une partie de ces activités que si Molotov devient un poids lourd du secteur.

Un futur encore incertain

L’autre promesse de Molotov (et aussi un des leviers forts de son modèle financier), c’est la possibilité d’enregistrer les programmes de son choix : l’app joue alors le rôle d’une sorte de magnétoscope programmable, on “bookmarke” le programme à venir de son choix, et, après sa diffusion, il est disponible dans son espace personnel.

La fonction est prometteuse… mais n’est pas encore active. Elle est en effet liée à la parution d’une loi sur la création qui a été, comme par hasard, conçue pour s’adapter parfaitement à cette activité de Molotov (merci le lobbying). Cette loi a été votée, est parue au journal officiel, mais Molotov semble dire qu’il soit nécessaire d’attendre pour activer cette fonctionnalité. L’argument semble un peu capillotracté, mais soit.

molotov1
L’enregistrement, c’est (pas) maintenant

Cette fonction semble bien intégrée techniquement, et sera plutôt pratique quand elle fonctionnera. Bien entendu, cela implique d’anticiper les choses et de bookmarker le programme avant qu’il soit diffusé ! Ce qui est une contrainte finalement stupide techniquement, puisqu’on se doute que les programmes seront tous pré-enregistrés par Molotov indépendamment des demandes individuelles. Là encore, la contrainte juridico-contractuelle fait sa loi. Néanmoins, l’interface du service semble laisser la possibilité d’enregistrer certains programmes passés (selon quels critères ?). Tant que la fonction n’est pas pleinement opérationnelle, difficile de savoir précisément ce qu’il en est.

Un choc : des contenus affligeants

Je terminerai par une remarque subjective : Molotov a un vrai talent pour mettre en avant et présenter les contenus d’une manière inédite dans le domaine de la télévision. On prend un vrai plaisir à naviguer dans les programmes. Malheureusement, le second effet kiss-kool, pour moi du moins, a été de constater à quel point les programmes “intéressants” (avec mes critères hein, ça reste du subjectif) deviennent rarissimes sur la télévision française. En tout cas, la comparaison avec la richesse foisonnante de ce qui se passe du côté de Youtube est cruelle.

Finalement, on en vient à se dire que regarder la TV de manière ultra-passive, en subissant le flux et en n’interagissant qu’avec un zapping stérile, c’est aussi un moyen de déconnecter son cerveau et de ne pas avoir le recul permettant de réaliser à quel point le contenu est médiocre.

La révolution de la TV est en marche, mais il reste du chemin

Jamais une startup n’est allée aussi loin dans la réappropriation des contenus TV, et la couverture médiatique autour de Molotov est justifiée. Malgré la déception à court terme, je vais rester très attentif sur la capacité de cette structure à améliorer et faire évoluer son modèle, pour arriver à devenir ce dont elle a l’ambition : le point d’entrée principal du consommateur d’images. Elle a beaucoup d’atouts pour y parvenir, et sa plateforme technique qui est une réussite n’en est pas le moindre.

Une de mes interrogations, maintenant que j’ai le produit entre les mains, est la pertinence d’isoler le contenu TV du reste du web. Bien sûr, il serait illusoire d’avoir tout dans une seule app. Mais j’avoue qu’à l’usage, j’ai bien plus souvent envie de cliquer sur “Netflix”, sur “iTunes Store” ou sur “Youtube” que sur Molotov, si je souhaite avoir un programme de qualité. Peut-être que des contenus plus hybrides feront leur apparition sur le service à terme (on pourrait imaginer l’intégration par exemple de créateurs de contenus indépendants, comme Arrêt sur Images, ou de Youtubeurs structurés), l’idée ne serait pas forcément déconnante. A suivre en tout cas !