Le numérique est-il une singularité ?

numerique-singulariteQu’est-ce qu’une singularité, ce buzzword du numérique ?

Depuis la parution du best seller de Ray Kurzweil, The singularity is near, le terme « singularité » est devenu un des buzzwords du numérique. Mais qu’est-ce que réellement une singularité ?

En mathématique et en physique, c’est un mot précis qui dénote un changement brusque dans l’évolution d’un système physique ou d’une trajectoire. Nous en avons tous une expérience quotidienne, par exemple quand on fait bouillir de l’eau. Au départ, la température de l’eau augmente au fur et à mesure que l’on chauffe. Aux alentours de 100°C, un changement brutal apparaît. La température cesse de monter, toute l’énergie sert alors à vaporiser l’eau, ce que les physiciens appellent un changement de phase. 

Tant qu’il y a de l’eau, la température reste remarquablement stable, ce qui permet de définir une constante de la physique appelée point d’ébullition. Dès que toute l’eau est vaporisée, la vapeur qui se comporte comme un gaz, se met à chauffer en se dilatant, en suivant une loi physique que tous les bacheliers connaissent, la loi de Mariotte-Boyle. Si la vapeur est confinée, c’est la pression qui s’élève. Un phénomène analogue mais inverse se produit quand la vapeur se refroidit et se transforme en eau, et que l’eau se transforme en glace, si la température continue de baisser.

Les changements de phases, c’est-à-dire les singularités, sont des phénomène intéressants, et dans le cas Eau <-> Vapeur, c’est ce qui nous a permis, une fois le phénomène bien analysé et compris, de réaliser les premières machines à vapeur à la fin du 18ème siècle, début de la révolution industrielle. Les singularités sont souvent utiles, parfois dangereuses, comme dans le cas des réactions nucléaires. On a réussi à faire des réacteurs qui contrôlent la fission de l’uranium ou du plutonium, sans incident majeur en France grâce à la vigilance de l’exploitant EDF, mais on sait qu’il n’en a pas été ainsi à Three Miles Island, Tchernobyl ou Fukushima. La réaction de fusion est pour le moment hors de portée, bien que dans les années 60 les futurologues de l’époque prédisaient que le problème serait réglé vers l’an 2000, sur la base d’extrapolations hasardeuses à base d’exponentielles mal agencées !

Ray Kurzweil et ceux qui suivent son raisonnement, comme par exemple Gilles Babinet dans son livre, « L’ère numérique, un nouvel âge de l’humanité », ont choisi délibérément de ne parler que de la partie du phénomène qui les arrange, à savoir la croissance exponentielle d’un certain nombre de choses.

Les phénomènes exponentiels sont très fréquents dans la nature. De nombreuses réactions chimiques, en particulier dans la chimie du vivant, sont auto catalytiques, grâce aux enzymes, ce qui signifie qu’elles fabriquent les réactifs qui accélèrent ou inhibent la réaction, ce qui engendre une dynamique exponentielle. Une prolifération non contrôlée de cellules dans un organisme vivant s’appelle un cancer.

Chaque fois que la nature a besoin d’une transformation rapide, pour satisfaire les équilibres énergétiques qui sont des lois fondamentales impératives impossibles à transgresser, il y a généralement une ou plusieurs exponentielles à l’œuvre, quelque part dans le mécanisme de régulation. Cependant, il n’y a pas d’exemple de croissance exponentielle qui, à un moment ou à un autre, ne soit pas compensée, car le déséquilibre engendré est tel qu’automatiquement un rééquilibrage s’opère, autrement, c’est la mort assurée, ou la destruction dans le cas d’une machine. Une croissance exponentielle épuise les ressources de l’environnement à une vitesse elle-même exponentielle, comme on en a de nombreux exemples dans la situation économico-écologique actuelle.

Dans les exemples donnés par Ray Kurzweil, il est facile de trouver de nombreux mécanismes compensateurs dont il se garde bien de parler. Je n’en citerai que deux que tous les informaticiens, au sens large du terme, connaissent fort bien, j’allais dire « numériciens », mais le mot est tellement affreux, et un vrai faux sens, qu’il vaut mieux s’abstenir. On pourrait multiplier les exemples.

Informatisation et complexité

Tous les responsables informatiques s’accordent à dire que la complexité qui accompagne mécaniquement l’informatisation accélérée de nos sociétés est un problème qui est devant nous, et pas derrière ! La complexité non organisée, naturelle pourrait-on dire, c’est-à-dire du désordre, se traduit par des coûts/délais prohibitifs, ou jugés tels par ceux qui n’ont pas bien intégrés les modèles d’estimation et l’ingénierie des projets, le tout généralement accompagné d’une baisse du niveau de service, d’une prolifération d’erreurs, etc. La qualité des données en est un bel exemple.

Il serait cruel de rappeler quelques échecs récents, du moins ceux qui ont été documentés. Il y a une quinzaine d’années, le Standish Group avait publié un rapport resté célèbre, le bien nommé « Chaos report », bien avant l’avènement de l’ère numérique. Il reste plus actuel que jamais. La complexité de la plupart de nos systèmes n’est pas comprise ; on en parle… sans agir. Elle est encore moins enseignée, car difficile à enseigner, pour autant qu’il y ait les « bons » enseignants, une ressource exceptionnellement rare car le sujet n’est pas de nature académique. La thérapeutique anti-complexité reste à inventer, et surtout à pratiquer. Mais il y a une chose dont on est sûr, cela ne se fera pas par l’achat de smart phones ou de tablettes, bien au contraire. Donc une affaire à suivre… et de très près !

La loi de Moore

C’est une « loi » intéressante, à condition d’en comprendre les tenants et les aboutissants qui lui donnent cette allure exponentielle bien connue, depuis une quarantaine d’années. Ce n’est pas une loi de la nature, et pour ceux que cela intéresse, il faudrait par exemple regarder les trésors d’intelligence et de savoir-faire qu’il a fallu déployer pour réaliser les pipe-lines « spéculatifs » qui équipent le Pentium IV d’Intel [voir Speculative execution, Pipe-line, sur le Wiki US].

Actuellement, l’accroissement de puissance est porté par la technologie dite des « puces » multi cœurs, c’est-à-dire plusieurs processeurs sur la même puce, avec aujourd’hui des 4 et 8-coeurs, mais demain, à l’horizon 3-5 ans, des centaines de cœurs. La société française Kalray, émanation de STM et du CEA, a commercialisé en 2014 une puce avec 256 cœurs.

Le problème induit par la mise en œuvre de ces nouvelles architectures est qu’elles changent radicalement les bonnes pratiques de programmation connues depuis les premiers ordinateurs. Il va falloir désormais s’habituer à penser et à programmer « parallèle » pour tirer partie de ces nouvelles architectures dites massivement parallèles qui pourront compter des milliers de processeurs actifs pour un même programme [à comparer aux quelques processeurs des machines dites multiprocesseurs].

La raison de cette rupture est le « mur thermique ». Aujourd’hui, pour augmenter le nombre de transistors sur une puce, il est nécessaire de ralentir l’horloge, la fréquence de commutation du circuit, pour contrôler la chaleur dissipée qui ne doit pas dépasser 70°C. Pour le coup, il s’agit d’une vraie singularité, car pour que la « loi » de Moore perdure, il faut cette fois repasser la balle aux gros bataillons des programmeurs d’applications ; ils sont des millions !

Moralité, cela va prendre un certain temps, et tous ne passeront pas la barre, vu le saut qualitatif que cela implique en termes de compétences et de savoir-faire, avec des outillages dont on voit bien la nature, mais qui restent à développer au plan industriel. Faute de quoi cela restera une simple potentialité, qui creusera l’écart entre ceux qui auront fait l’effort de s’adapter, et les autres. C’est une des clés du Big data, rien de moins ! Microsoft, Google… s’y préparent déjà depuis un certain temps.

Une première conclusion

Il n’y a pas d’exemple d’exponentielle « pure » qui ne produise pas quelques effets collatéraux détestables, ou du moins problématiques. Les centrales thermiques produisent du gaz à effet de serre. Les centrales nucléaires, des déchets radioactifs qui auront besoin de quelques milliers d’années pour redevenir inoffensifs. Entre les deux, certains préfèrent encore le moindre mal du nucléaire, comme l’un des pères de l’écologie, le britannique James Lovelock, avec sa théorie Gaïa. La pollution engendrée par les 7 milliards d’habitants, et bientôt 9, que comptera la planète, crée des montagnes de déchets dont l’effet est cumulatif, ce qui fabrique ce que l’on pourrait appeler une exponentielle +, faute de recyclage approprié. A côté de l’humanité augmentée H+ que nous promet R.Kurzweil, il y a une nuisance augmentée N++, dont il faudra bien finir par s’occuper sérieusement, et là, il faudra espérer trouver des exponentielles, ou se les fabriquer en préservant les équilibres à l’échelle de la planète !

Parler rigoureusement des singularités

schema1On peut donner une expression mathématique aux phénomènes ainsi décrits. On dira simplement que la température T croit régulièrement en fonction de l’apport énergétique E, soit par différence une relation du type T2-T1=Kx (E2-E1), K étant une certaine fonction croissante de l’état de l’eau à la température T et à la pression P. Avant ébullition K>0, mais au moment où apparaît le phénomène de l’ébullition, brutalement, K=0.

La courbe représentative d’un tel phénomène aura l’allure suivante, ci-contre. Au point E, l’extrapolation linéaire de la direction D1 passe brutalement à la direction D2. La courbe d’évolution de la température subit une discontinuité ; elle a deux directions ! Si le phénomène est qualifié d’ordre 0, alors la singularité peut se manifester sur les paramètres d’ordre 1 [les tangentes], d’ordre 2 [courbure et torsion], etc. ; c’est-à-dire les dérivées premières, les dérivées secondes, etc.

L’étude des singularités d’un phénomène que l’on a pu modéliser, d’un point de vue analytique, est l’étude des paramètres d’évolution de l’ordre 0, c’est-à-dire des fonctions différentielles d’ordre 1, 2… de ce phénomène. Si le phénomène est défini par des indicateurs, il faut alors s’intéresser aux variations de ces indicateurs qui sont nécessairement des signaux faibles ! Si l’indicateur n’est pas assez précis, ou s’il est mal défini, il ne permettra pas d’étudier ces signaux faibles, donc il ne sert à rien. L’ingénierie de projets offre une belle palette d’indicateurs « bidons » dénués de sens, alors que les fondamentaux, au nombre de trois, Coût, Délai, Qualité, sont négligés.

Quand une faille géologique, comme la faille de San Andrea qui traverse la Silicon Valley, accumule de l’énergie due aux mouvements des plaques tectoniques locales et que celle-ci se libère brutalement sous forme d’un tremblement de terre, il y a discontinuité, laquelle peut engendrer des catastrophes comme la destruction de San Francisco en 1905, ou à Fukushima, tremblement de terre de magnitude 9 suivi d’un monstrueux tsunami. D’où le nom médiatique de la théorie des singularités : Théorie des catastrophes, inventée par René Thom, mathématicien français, médaille Fields, et Christopher Zeeman, mathématicien anglais, une théorie dont on a beaucoup parlé dans les années 70-80. De tout cela, pas un mot, ni aucune référence dans le livre de Ray Kurzweil.

La croissance des connaissances par accumulation de données

Ray Kurzweil et ses adorateurs laissent à penser que la diffusion exponentielle des « connaissances », sans d’ailleurs bien définir ce terme, va nous rendre in fine plus « intelligent », sans d’ailleurs non plus définir ce qu’est l’intelligence, Ray Kurzweil ayant écrit précédemment d’autres ouvrages comme The age of spiritual machines, lui-même précédé de The age of intelligent machines, plutôt axés sur l’aspect mécanico-encyclopédique et calculatoire de l’intelligence, ce qui est loin d’épuiser le sujet. Certes, il est toujours agréable de s’entendre dire que l’on va devenir plus intelligent, voire même infiniment intelligent, grâce à des supports comme Wikipedia où les MOOC, que l’on peut consommer comme l’air qu’on respire, et aux vertus cachées de la « loi » de Metcalfe. Mais quand même ! sans nier l’intérêt de Wikipedia et des MOOC, il faut une bonne dose de naïveté pour croire que tout cela se fera sans effort. Tout le monde sait que l’apprentissage requiert, en quelque domaine que ce soit, du temps de « cuisson », des efforts personnels, de la motivation et par-dessus tout de la stimulation, de l’entraînement sous la surveillance de maîtres vigilants qui vont guider et encourager les débutants et les juniors. Pire, si la stimulation n’est pas effectuée au bon moment, on perd irrémédiablement certaines capacités.

La vitesse à laquelle nous assimilons et créons les connaissances est remarquablement stable, et nous avons même quelques idées sur les limitations de cette capacité.

Une vie humaine entièrement consacrée à l’étude et à la diffusion des connaissances, disons 20-30 ans, est capable de produire une œuvre aux alentours de 20.000 pages, au grand maximum. Alexandre Grothendieck, médaille Fields, génie des mathématiques et refondateur de la géométrie algébrique, a produit une œuvre de cet ordre de grandeur, d’ailleurs inachevée, les Eléments de géométrie algébrique, et le Séminaire de géométrie algébrique, dont il explique la genèse dans son autobiographie Récoltes et semailles ; avec l’aide de ses élèves et de membres du groupe Bourbaki comme Laurent Schwartz. Les œuvres complètes du philosophe Martin Heidegger occupent environ 100 volumes, cours compris, soit 30-40.000 pages. Au Moyen-âge on pourrait citer Thomas d’Aquin, et dans l’antiquité tardive Augustin d’Hippone.

Ce qui prend du temps, c’est d’agencer correctement ses idées pour comprendre et être compris, pas la saisie mécanique et répétitive !

Dans la « culture » numérique, il y a une catégorie de connaissances sur laquelle l’impasse est quasi-totale. Il s’agit des savoir-faire qui comme leur nom l’indique s’acquièrent en faisant des choses ; en gros tous le domaine de l’ingénierie, au sens large du terme. On n’apprend pas à nager ou à faire du vélo en lisant des livres, mais en se jetant à l’eau en évitant de se noyer, ou en enfourchant sa bicyclette en évitant de tomber.

On peut comprendre la programmation en lisant quelques livres, mais apprendre à programmer nécessite d’écrire des programmes utiles à l’environnement dans lequel le programmeur opère. Le problème doit être d’abord formulé en langage naturel et/ou formel, puis traduit et validé sur la machine d’exécution. Là encore on peut raisonner en pages de textes que sont les programmes ; on dispose de statistiques abondantes et parfaitement corrélées sur le sujet. On sait qu’un bon programmeur, en moyenne, peut produire au grand maximum, pour ceux du premier décile, environ 10.000 lignes de code dans une année ouvrée normale [la moyenne générale étant d’environ 4.000 lignes] ; ce qui fait que dans sa séquence d’apprentissage, pour devenir expert [5 à 7 ans] il aura fabriqué de ses mains au grand maximum 100.000 lignes de code, ce qui ramené au normes de l’édition fera quelque chose comme 2.000 pages auxquelles il faut rajouter différentes tables, index, et des commentaires textuels pour assurer la relecture, pour lui-même et pour les autres programmeurs. Soit en final quelque chose comme 6 ou 7 gros livres de 400 pages.

La vitesse moyenne à laquelle un programmeur écrit ses programmes est une remarquable constante depuis les années 50. Il est illusoire de penser que la technologie va accélérer cette vitesse.

Même dans des domaines aussi abstraits que les mathématiques ou la physique théorique, l’apprentissage est essentiel. L’invention de la mécanique quantique dans les années 1920 est impensable sans les creusets qu’ont été l’école mathématique de Göttingen dirigée par David Hilbert et l’institut de physique théorique de Copenhague dirigé par Niels Bohr. En France, où nous avons une des meilleures écoles mathématiques du monde, c’est l’Ecole Normale Supérieure qui joue ce rôle, et ce n’est pas un hasard si tous les médaillés Fields sont normaliens, ou dans une orbite rapprochée comme A. Grothendieck. Le jugement et la confrontation avec les pairs joue un rôle essentiel, ce qui donne du sens à la notion d’intelligence collective, qui là encore n’est pas une chose qui naît spontanément comme on pourrait le croire en prenant pour argent comptant les slogans un peu racoleur de la « culture » numérique.

L’accumulation encyclopédique des connaissances fabrique mécaniquement son lot de nouveaux problèmes. Comment trouver l’information juste, et non pas juste de l’information ? Comment faire le tri dans la masse, sans se perdre, et apprendre à formuler la bonne question qui renverra une réponse utile à celui qui questionne ? Quid des erreurs ? Autant d’interrogations laissées sans réponse ! Il faut une bonne dose de naïveté pour croire qu’un moteur de recherche pourra faire « le boulot ».

Plus l’information est abondante, mieux il faut se former et valider sa capacité de jugement pour préserver sa liberté, éviter les biais statistiques et les leurres, sous peine de se faire complètement manipuler et instrumenter, ou croire que l’on a fait la découverte du siècle alors que l’on n’a pas cherché au bon endroit.

NB : A. Grothendieck, qui a d’abord été un quasi autodidacte, avait réinventé la théorie de l’intégration de Lebesgue, ce qui lui avait valu une belle engueulade de ses tuteurs de Nancy, Laurent Schwartz et Jean Dieudonné !!! Perte de temps, lui ont-ils dit.

Pour conclure, et être complet sur les phénomènes de croissance, il faut certes s’intéresser aux exponentielles, mais aussi à ce qui les compensent, voire les « cassent ». Ce sont des dynamiques bien connues, étudiées en leur temps par Alfred Lotka et surtout Vito Volterra qui en a fait la théorie dans ses Leçons sur la théorie mathématique de la lutte pour la vie, enseignées à Paris dans les années 20.

Il faut considérer trois dynamiques, comme indiqué dans la figure ci-dessous, c’est-à-dire trois fonctions qui se superposent. De façon qualitative, ou pourrait écrire :
C(t) = Terme_exponentiel – Facteur_de_ralentissement – Facteur_héréditaire_cumulatif

schema2

Au départ les trois courbes sont confondues, mais très vite apparaissent des freins à la croissance, générés par la croissance elle-même. On obtient alors une courbe logistique N°2, appelée courbe en S du fait de sa forme caractéristique. Ray Kurzweil la mentionne, page 34, dans son livre The age of spiritual machines, en la brocardant, et en faisant un « gros » contresens ou une tromperie si on veut rester gentil. Il affirme, ce qui est tout à fait contestable, que l’innovation humaine peut compenser le ralentissement, ce qui n’est pas faux localement, mais qui revient à affirmer qu’il n’y a pas de limite et que les ressources pour supporter cette croissance sont infinies ; c’est là qu’il y a tromperie, car globalement c’est nécessairement faux. Sauf à pratiquer par la force l’abus de position dominante, ce que savent très bien faire Google ou Microsoft, ou quelques autres « géants » du Net. Est-ce de la prédation qui marche tant qu’il y a des proies à dévorer ?

Par ailleurs, il ne considère jamais les termes héréditaires qui existent toujours, nécessairement compte tenu des lois de la thermodynamique et des lois de conservation énergétique. Pour créer de l’ordre, il faut fabriquer du désordre quelque part. C’est une loi fondamentale qu’on ne peut pas transgresser. Une centrale nucléaire rejette beaucoup de chaleur, c’est-à-dire du désordre, dans son environnement. Une centrale thermique rejette de la chaleur, mais surtout du CO2 qu’on ne sait pas séquestrer. Les conditions de la croissance d’Apple et de sa richesse sont les dizaines de milliers d’esclaves de chez Foxconn, taillables et corvéables à merci ! Il ne faut jamais l’oublier.

Ce que nous enseigne la nature, modélisée par la dynamique de Lokta-Volterra, est qu’un désordre non recyclé au moyen d’un autre processus, ou non compensé par un apport externe, va engendrer mécaniquement un terme héréditaire cumulatif qui finira toujours par « casser » l’exponentielle, directement ou indirectement.

Et alors … le numérique est-il une singularité ?

En revenant à la question initiale, on comprend tout de suite que le numérique n’est pas une singularité au sens strict du terme. Mais il est non moins évident que la technologie numérique, c’est-à-dire l’informatique au sens large des TIC, ouvre un champ d’opportunités, bonnes ou mauvaises, dont il est impossible aujourd’hui de faire le tour.

Les Chinois ont inventé l’imprimerie au moins 5 ou 6 siècles avant Gutenberg, mais ils ne s’en sont pas servis de la même façon que les européens. Idem pour la poudre à canons et bien d’autres inventions… par contre, seuls les européens ont su créer la science moderne. Il n’y a pas eu de Copernic, Kepler, Galilée ou de Newton… Chinois. Euclide et les géomètres grecs ont inventé la géométrie dans des bacs à sables… mais la méthode de raisonnement hypothético-déductive a eu un immense impact dans tout le bassin méditerranéen que seuls les européens ont su faire fructifier ; ils ont créé la langue mathématique dans laquelle est écrit le « grand livre de la nature », disait Galilée.

La technique européenne est devenu scientifique, et très efficace, ce qui a permis à certains de proclamer la supériorité de notre culture et/ou civilisation [termes à manier avec des pincettes], avec tous les débordements que l’on connaît. Mais même les mathématiques peuvent être dévoyées quand, devenue « financières », elles servent d’alibi à la finance dérégulée qui a transformé l’économie en cercles de jeux ; Nicole El Karoui, professeur à l’Ecole Polytechnique, s’est très clairement exprimée à ce sujet.

L’interaction temps réel, avec son et image, que permet aujourd’hui la technologie, peut facilement dégénérer, et engendrer une uniformité à base de comportements mimétiques, voire même programmés avec la publicité personnalisée, comme on le voit avec les selfies et de nombreuses autres déviances.

Le minitel « rose » à fait la fortune d’un de nos opérateurs téléphoniques, tel autre a créé des sites de rencontre, le “binge drinking” fait fureur dans les réseaux sociaux… on est bien loin de l’encyclopédie de Diderot-D’Alembert et des MOOC, ou de la Kahn Academy…

Culture numérique, Petite Poucette doit-elle relire La Fontaine ?

Quant à la culture numérique, il est à craindre qu’il ne s’agisse que d’un oxymore de plus, comme si il suffisait de posséder une tablette ou un smart phone, fut-il manipulé avec la dextérité de la « Petite poucette » de Michel Serres, pour être, voire paraître cultivé, via son avatar… dommage !

Les stoïciens disaient que « un état sans justice n’est pas différent d’une bande de brigand ». On peut dire la même chose de la culture numérique, car une culture sans éthique, sans respect de l’autre, n’est pas très loin d’un totalitarisme new look, plus insidieux que ceux que nous avons déjà expérimentés en Europe, à moins que cette culture ne soit réservée au 1% des plus riches ou à l’humanité augmentée des H+, le reste n’ayant besoin que « de pains et des jeux » pour calmer les assujettis. La Grèce et Rome, tant admirées par certains, étaient également des sociétés esclavagistes… mais cela ne s’est pas très bien terminé pour elles.

Vous avez dit… une singularité ?

Peut-être ! Mais sûrement pas celle que certains, parties prenantes et intéressés financièrement, sont entrain de nous servir…
La vigilance s’impose. « Tout flatteur vit au dépend de celui qui l’écoute », a dit notre cher bon vieux La Fontaine… quel bon conseil !!!

Jacques-PrintzJacques Printz
Professeur émérite du CNAM,
chaire de génie logiciel
Membre de l’ITNE

ligne-grise

Catégories
0 Comments
0 Pings & Trackbacks

Laisser un commentaire