fbpx

Les feuilles de calcul n’ont pas toujours existé

Rien de plus naturel aujourd’hui que d’utiliser Excel dès qu’on a le moindre besoin de faire quelques calculs, ou pour ordonner des données.

Ce geste est devenu tellement naturel qu’on en viendrait à oublier que la notion même de feuille de calcul est une invention relativement récente, et qui a révolutionné la micro-informatique, lançant pour de bon l’intérêt qu’on pouvait avoir d’utiliser un ordinateur chez soi. Rencontre avec Dan Bricklin, l’inventeur de VisiCalc, le pionnier de ces outils indispensables !

Linux, l’outil qui bouleversa toute l’industrie du logiciel

Linus Torvalds a marqué à jamais la courte histoire du logiciel en faisant d’une pierre deux coups : avec la création de Linux, il a à la fois popularisé l’open source, et tout changé dans la manière dont on aborde les serveurs dans une architecture technique. Récit, par le principal intéressé, d’un parcours atypique fait d’audace, de collaboration, et de dictature bienveillante.

Pénurie de développeurs ?

Derrière la mode des startups technologiques, le pari politique est souvent celui de résoudre la pénurie d’emploi en orientant de plus en plus de jeunes (et de moins jeunes) vers une carrière de développeurs en informatique. Les chiffres montrent en effet clairement qu’il existe de nombreux emplois dans « la tech » qui ne sont au final jamais pourvu, faute de candidat pertinent.

L’équation semble donc extrêmement simple : on a un secteur en tension avec de la pénurie de main d’oeuvre, et de l’autre côté un chômage qui reste pesant. La solution est simple : on va former « au code » !

Malheureusement, les choses sont, comme souvent, bien plus complexes dans la réalité, et il me semble important de faire un peu d’ordre dans ce gloubi-boulga idéologique.

Apprendre « le code », c’est important, mais…

Ce mouvement d’apprentissage du métier de développeur commence très tôt dans l’esprit des décideurs : il faut apprendre à coder dès l’école primaire, pour en faire une discipline aussi importante que le français, les maths, l’anglais…

Il est d’autant plus facile de souscrire à ce mouvement qu’il a l’appui de grandes sommités du numérique. Apprendre à coder est très structurant pour l’enfant, il y apprend la rigueur, l’esprit d’analyse, etc… tout en surfant sur un environnement qui peut apparaître plus attractif que les mathématiques. Et en plus on a une promesse de métier à la sortie !

Il me parait très important de bien dissocier :

  • d’un côté les bienfaits de l’apprentissage du code, qui effectivement apporte de grands bénéfices dans la capacité à analyser une situation, la structurer, y apporter de manière créative une solution, etc…
  • de l’autre côté la capacité de faire de ces « codeurs en herbe » des informaticiens qui vivront de leur travail

Mélanger ces deux aspects très différents est à mon sens aussi biaisé que le raisonnement (absurde) qui consisterait à se dire qu’on enseigne systématiquement les mathématiques pour pouvoir faire de la France un pays de mathématiciens. Dans les faits, très peu de gens font des mathématiques leur métier, et on croise souvent des discussions où les anciens écoliers restent très perplexes, en se demandant « à quoi ça m’a servi ? ».

Dans les faits, effectivement, 99% des gens n’auront jamais l’usage d’une bonne partie des notions mathématiques qu’ils auront appris à l’école. Et pourtant, cet enseignement reste indispensable, pas tant par ce qu’il apporte directement, mais par les effets beaucoup plus difficilement quantifiables dans la capacité de raisonnement, la possibilité qu’à l’être humain d’acquérir des savoirs-faire très subtils mais qui feront toute la différence entre un être complètement inculte et quelqu’un qui aura la « tête bien faite », et qui pourra s’en servir pour se sortir dans bien des situations.

On pourrait facilement rétorquer, à juste titre, que ce « savoir faire » et ce savoir-être n’est pas uniquement forgé par les mathématiques, mais également par bien d’autres disciplines, du français au sport en passant par l’histoire, et que de laisser « en silos » ces disciplines est une grande bêtise puisque l’humain va tirer profit de ces différents savoirs de manière bien plus transverses. C’est tout l’intérêt du paradigme des « arts libéraux » anglo-saxons (« libéraux » étant ici à prendre au sens « libérateur »), qui voient les choses de manière bien moins cloisonnée. Mais c’est un autre débat.

Pour en revenir à notre notion de code appris dès le plus jeune âge, il me semble important de ne pas le voir d’une manière « utilitaire » : peut-être que ces quelques sessions d’initiation permettront de faire naître quelques vocations, si ces initiations sont faites de manière correcte. Mais ça ne doit pas être l’objectif premier de ces moments, d’autant plus qu’il y aura vraisemblablement un fossé entre ce qu’on pourra apprendre aux jeunes enfants en 2020, et ce qu’utiliseront les informaticiens de 2040.

C’est donc l’esprit du code, bien plus que la lettre, qu’il faut maintenir à l’école, tout en se positionnant en fervents défenseurs de ce qu’il est possible d’amener aux enfants par ce biais.

(Cette façon de voir les choses aura également pour vertu de maintenir à l’écart certaines firmes commerciales, qui, de Apple à Microsoft, cherchent à refourguer leurs solutions payantes dans un système éducatif qui peut très bien s’en passer si l’on se souvient que l’important est d’apporter une logique aux enfants, pas une formation professionnalisante).

Pénurie de développeurs ? Oui, mais pas n’importe lesquels

Quiconque est un peu du métier ne peut que réaliser que le métier de l’informaticien se complexifie de plus en plus. Le développeur d’aujourd’hui, s’il utilise fondamentalement les mêmes notions qu’il y a 20 ans, a aujourd’hui besoin d’infiniment plus de savoir pour pouvoir proposer une prestation au niveau des besoins des employeurs. L’industrie amène d’ailleurs à se spécialiser de plus en plus, car il est tout simplement impossible à un unique bonhomme de maîtriser toutes les notions indispensables à un tel travail.
On va tout droit vers un système de spécialisation qui ressemble pas mal à ce qu’on connaît depuis longtemps en médecine : certes, il reste des médecins généralistes, donc le rôle est de servir la proximité avec le patient, régler les problèmes les plus courants, et le rerouter vers le spécialiste le plus pertinent en fonction des problèmes plus pointus à régler. Mais on n’irait certainement pas confier son oeil à un dentiste, ou un problème cardiaque à un ORL.
L’informatique du point de vue de la main d’oeuvre s’organise de plus en plus de cette manière là, et les spécialités sont de plus en plus pointues et nécessitent des compétences qui sont rares, en particulier dans les nouvelles spécialités créées autour de technologies récentes (au hasard et pour rester dans des domaines très tendances, les « data analysts » et experts en big data qui s’appuient souvent sur des technos en pleine évolution).
Le constat est donc le suivant, et il n’est malheureusement pas très compatible avec les actions actuellement en place : oui, de nombreuses entreprises cherchent des recrues et ne les trouve pas. Mais si elles ne les trouve pas, ça n’est pas parce que le marché manque d’informaticiens employables. Elle ne les trouve pas parce qu’elle ne trouve pas de développeurs suffisamment pointus dans un domaine très précis.
C’est ainsi qu’on se retrouve avec, dans le même temps, des postes non pourvus de plus en plus nombreux, et de l’autre côté des informaticiens débutants, qui ont un savoir généraliste et qui font ce qu’ils peuvent en tant que débutants, mais qui ne répondent en rien aux besoins pointus des offres non pourvues.
Ainsi, tenter de résoudre le problème de l’emploi en formant à la va-vite des chômeurs en reconversion, dans la promesse de les amener « au code » qui va résoudre leurs problèmes, ne peut amener que pas mal de déceptions. Le métier est exigeant, et nécessite une adaptation et un investissement qui très souvent dépasse le simple fait de suivre une formation de quelques semaines.
N’interprétez pas mal mes propos : je ne dis en aucune manière que la piste de l’emploi par le biais de l’informatique est une mauvaise piste. Mais il faut sans cesse rappeler que la problématique est complexe, et que le chemin pour parvenir à l’emploi par ce biais nécessite un investissement très important, et quelque part une passion pour la discipline, sans laquelle on risque de se heurter à pas mal de murs, ou a être très malheureux dans son emploi.

L’informatique peut être une discipline très exaltante pour quiconque s’y trouve une passion, tout en étant dans le même temps une activité horrible pour celui qui n’y trouve pas le feu sacré. De la même manière que si avoir des bases mathématiques est très structurant pour tous, envisager le métier de mathématicien pour tous serait être très méprisant pour la personnalité de chacun.

La vague de fond du freelance

A peu près tous les recruteurs en informatique que j’ai pu rencontrer se heurtent de plus en plus à un problème qu’ils n’avaient pas prévu : trouver la compétence rare est une tâche ardue. Mais les vrais ennuis démarrent lorsqu’ils réalisent que les « perles rares » ont de plus en plus souvent une exigence inattendue : celle de pouvoir travailler « en remote », en télétravail donc, ou, encore pire, celle de n’être pas salarié mais d’intervenir en tant que travailleur indépendant.

Ces discussions sont souvent suivies d’une certaine condescendance pour cette démarche : la génération qui vient est bien capricieuse, on leur propose sur un plateau un poste dans un job qui les passionne, avec des missions bien adaptées, souvent un bon salaire et de bonnes conditions de travail (et même parfois un baby-foot !), et ils ne sont pas contents !

On peut épiloguer sans cesse sur la génération X, Y ou Z ou je ne sais quelle lettre, ou encore tenter de théoriser cette tendance au « slash » (tous ces gens qui ont plusieurs activités, par exemple « développeur/entrepreneur »). Mais les faits sont là, et n’ont rien d’un scoop ; c’est même une redite de ce qui se fait depuis toujours : les moeurs évoluent, les tendances aussi, et le positionnement de l’entreprise par rapport à sa main d’oeuvre est sans cesse à réinventer. Comme on a dû le faire à plusieurs reprises ans le passé. Comme l’ont fait nos anciens à l’issue de la 2ème guerre mondiale, ou à l’ère de la révolution industrielle. Est-ce une bonne, une mauvaise chose ? Je ne le sais pas. Mais tenir compte des envies de chacun et avoir la capacité de s’y adapter me semble un facteur indispensable pour pouvoir constituer sa « dream team » de barbus, l’équipe qui permettra de relever les défis du numérique.

On fait quoi chef ?

Comme d’habitude, ne pas rentrer dans des clichés. Ne pas chercher à simplifier à outrance une situation qui est nuancée, et qui nécessite une connaissance un peu poussée du secteur. Ne pas croire aux solutions miracles. Ne pas jeter le bébé avec l’eau du bain, et rejeter ce qu’on a encensé : le plus souvent, les deux réactions sont équitablement insensées. Et, malgré tout, se souvenir que le code peut être une activité passionnante et formatrice, dès lors qu’elle est exécutée dans le bon contexte, avec le bon entourage et des objectifs à la fois ambitieux et réalistes !

Le vrai danger de l’intelligence artificielle

Pour Janelle Shane, chercheur en intelligence artificielle, le danger de l’intelligence artificielle n’est pas où l’on croit. Il est même à l’opposé de nos pires peurs : on craint qu’une intelligence artificielle échappe à notre contrôle et se mette à prendre de terribles initiatives, le vrai danger est en fait qu’elle fasse exactement ce qu’on lui a demandé de faire….

Pourquoi Yahoo avait stoppé toute expérimentation de télétravail (et pourquoi c’était une connerie)

Lorsque Marissa Mayer, une ancienne de Google, a repris les rennes du vaisseau Yahoo, elle a lancé toute une série d’actions, certaines pertinentes, d’autres beaucoup moins, pour restructurer à son idée la firme historique du web.

Une de ses premières actions a été d’auditer les « remote », ces salariés qui travaillaient de chez eux, à temps plein ou à temps partiel. Bref, en bon français des « télétravailleurs ».

Et elle s’est rendu compte que ces salariés là interagissaient beaucoup moins avec leurs collègues pendant ces périodes à distance. Les échanges mail ou messagerie instantanée étaient bien moins nombreux, et on prenait le risque de laisser ces acteurs là dans l’isolement. L’analyse était claire : ces gens là travaillaient moins, et étaient bien moins efficace, puisque les chiffres montraient de manière limpide qu’ils intervenaient moins.

La sanction fût immédiate : ordre a été donné de rapatrier ces troupes bien peu actives à la maison mère, pour qu’ils puissent réintégrer les équipes.

Cette action est l’exemple parfait d’une erreur d’interprétation grave, et aussi l’illustration que la mesure étalon du travail en entreprise devient de moins en moins le travail accompli, mais plutôt le nombre des contributions dans les échanges entre collaborateurs. Quelqu’un qui envoie peu de mails devient suspect. Quelqu’un qui participe à peu de réunions encore plus.

Qui n’a pas connu ça : le meilleur moyen, dans une entreprise, de calmer une frustration ou une culpabilité de type « il faut agir » reste encore d’envoyer un mail, ou, encore mieux, d’amorcer une réunion.

Le vrai secret du télétravail, c’est qu’il permet de se concentrer sur ce qui devrait être la vraie valeur ajoutée d’un collaborateur d’entreprise : ce sur quoi il est capable de se concentrer, d’exécuter par lui-même. Quelque chose qui vienne de lui, et pas d’un échange.

Je ne dis certainement pas là que l’échange est inutile, ou que le travail collaboratif n’apporte rien. Mais force est de constater que la force centrifuge d’une entreprise va vers un fonctionnement où parvenir à se concentrer, se fixer un focus sur une tâche, exécuter quelque chose d’un point A à un point B, devient de plus en plus une activité que l’on doit presque exécuter « malgré » l’entreprise, quasiment de manière clandestine, en venant plus tôt le matin, en créant des rendez-vous bidon sur son emploi du temps pour se préserver du temps, ou… en travaillant de chez soi.

Bien sûr que le télétravail amène quelques complications sur les interactions entre collaborateurs, et qu’il n’est pas toujours facile de maintenir un lien fort entre des troupes dispersées géographiquement – même si de plus en plus d’outils et de méthodes permettent de faire ça efficacement. Mais permettre à un salarié de pouvoir se concentrer sur les tâches qu’il a à accomplir, lui donner la possibilité de travailler confortablement pour exécuter quelque chose sans être sans cesse interrompu, doit être considéré comme une des grandes vertus du télétravail, et pas comme l’a fait Marissa Meyer comme un signe de manque de productivité ou d’inclusion dans l’entreprise.

Relier parents et enfants par la technologie

Bien entendu, s’il y a une relation qui doit être la plus directe possible, c’est bien celle entre parents et enfants. Mais que se passe t’il lorsque la vie amène l’éloignement ? Si un des parents est en prison ? Ou même s’il a à voyager, doit on se condamner à couper le lien avec ses enfants pendant cette période là ? Positionnée de manière délicate en tant que palliatif, de lien, de décision qui ne soit pas “ni tout blanc, ni tout noir”, la technologie peut amener des interactions étonnantes.

Plaidoyer pour un archivage global de la planète

On parle beaucoup de collapsologie en ce moment. Croyance ou réalité probable, le débat fait rage. Mais on songe peu aux traces que laisserait notre génération, et surtout notre environnement, lorsque les historiens du futur étudieront notre période et chercheront à comprendre la planète Terre de 2019. L’occasion de se poser des questions sur nos traces à long terme…