Mots-clés : dossier, complexité
LA THEMATIQUE
La complexité est partout. Elle est la résultante de la confrontation de l'élargissement rapide et (peut-être) infini des dimensions dans lesquelles nous vivons et de nos limitations physiologiques et intellectuels en tant qu'être humain.
De plus en plus de choses arrivent de plus en plus vite, qui sont d'ailleurs complexes et inattendues.Sans compter, le périmètre géographique qui s'étend sans fin. Les nouveautés, les innovations techniques et les avancées sociales nous assaillent sans cesse et questionnent notre entendement sur la compréhension du monde mais surtout du quotidien.
Peut-être sommes-nosu arrivés au bout de la capacité d'évolution de l'espèce humaine et que la sélection darwinienne est trop lente pour nous premettre de nous adapter à ces nouvelles circonstances et nous permettre de disposerd 'uin cerveau ad-hoc?
Mais peut-être, comme souvent, avons-nous également des ressources en nous pour essayer de trouver des moyens pour affronter la compleité du monde. en tout cas, de plsu en plus de chercheurs investiguent cette nouvelle discipline dans cet espoir.
Rendons d'abord hommage à un des pères tutélaires de cette discipline: Edgar Morin, qui aborde cette question grâce à la "Méthode". sans oublier le prix Nobel d'économie HA Simon.
D'ailleurs, tout un mouvement se développe pour opposer réalité et donc complexité à la science traditionnelle qui voulaitvoiler la réalité du mode par des explications réductrices à des équations simples et "belles".
Un paradigme qui a "émergé" et devient un instrument puissant de lecture de notre encvirionnement et l'EMERGENCE.
En informatique, cette complexité surgit en autre pde la nécessité de traiter en temps réel des masses d'évènements, ce qui a suscité la discipline dénommée: Complex Event Processing
UNE INTRODUCTION
QU'EST-CE LA COMPLEXITE (site science.gouv.fr)
La complexité est partout. Elle est la résultante de la confrontation de l'élargissement rapide et (peut-être) infini des dimensions dans lesquelles nous vivons et de nos limitations physiologiques et intellectuels en tant qu'être humain.
De plus en plus de choses arrivent de plus en plus vite, qui sont d'ailleurs complexes et inattendues.Sans compter, le périmètre géographique qui s'étend sans fin. Les nouveautés, les innovations techniques et les avancées sociales nous assaillent sans cesse et questionnent notre entendement sur la compréhension du monde mais surtout du quotidien.
Peut-être sommes-nosu arrivés au bout de la capacité d'évolution de l'espèce humaine et que la sélection darwinienne est trop lente pour nous premettre de nous adapter à ces nouvelles circonstances et nous permettre de disposerd 'uin cerveau ad-hoc?
Mais peut-être, comme souvent, avons-nous également des ressources en nous pour essayer de trouver des moyens pour affronter la compleité du monde. en tout cas, de plsu en plus de chercheurs investiguent cette nouvelle discipline dans cet espoir.
Rendons d'abord hommage à un des pères tutélaires de cette discipline: Edgar Morin, qui aborde cette question grâce à la "Méthode". sans oublier le prix Nobel d'économie HA Simon.
D'ailleurs, tout un mouvement se développe pour opposer réalité et donc complexité à la science traditionnelle qui voulaitvoiler la réalité du mode par des explications réductrices à des équations simples et "belles".
Un paradigme qui a "émergé" et devient un instrument puissant de lecture de notre encvirionnement et l'EMERGENCE.
En informatique, cette complexité surgit en autre pde la nécessité de traiter en temps réel des masses d'évènements, ce qui a suscité la discipline dénommée: Complex Event Processing
UNE INTRODUCTION
QU'EST-CE LA COMPLEXITE (site science.gouv.fr)
Comment appréhender la complexité ?
Depuis une vingtaine d’années la notion de complexité est devenue un concept clé dans de nombreux domaines d’étude : tremblements de terre, économie, feux de forêts, informatique... Cette science en est encore à ses balbutiements, bien que la nécessité d’étudier les phénomènes complexes ait été perçue assez tôt. Très à la mode le terme "complexité" n’est pas défini de manière unique. En effet, le complexe ne se laisse pas facilement appréhender ; peut-être même qu’aucune définition consensuelle n’existera jamais. Malgré tout, le sens que l’on donne à la complexité est plutôt en bon accord avec l’intuition.
Indispensable : distinguer le "compliqué" du "complexe"
Une horloge et une société de fourmis comportent toutes deux un grand nombre "d’agents". Mais alors que dans la première, ils sont agencés de manière linéaire, chaque mouvement entraînant le suivant, dans la seconde, les agents interagissent de manière buissonnante et rétroactive : l’horloge est compliquée, la colonie complexe.
Une horloge et une société de fourmis comportent toutes deux un grand nombre "d’agents". Mais alors que dans la première, ils sont agencés de manière linéaire, chaque mouvement entraînant le suivant, dans la seconde, les agents interagissent de manière buissonnante et rétroactive : l’horloge est compliquée, la colonie complexe.
Un mot problème
Comme le dit le sociologue et philosophe Edgar Morin, la complexité est un mot-problème, le problème étant que notre connaissance ne nous permet pas de l’apprivoiser. Le complexe surgit ainsi comme une difficulté et nous lance le défi de le cerner, de le comprendre : c’est l’objet de la science de la complexité dont les maîtres mots sont modélisation et simulation.
Comme le dit le sociologue et philosophe Edgar Morin, la complexité est un mot-problème, le problème étant que notre connaissance ne nous permet pas de l’apprivoiser. Le complexe surgit ainsi comme une difficulté et nous lance le défi de le cerner, de le comprendre : c’est l’objet de la science de la complexité dont les maîtres mots sont modélisation et simulation.
Du paradigme simplificateur à celui de la complexité
Afin de saisir le sens que l’on donne à la science de la complexité et à ses apports, il faut la comparer à la science classique, dont les fondements ont été établis au XVIIe siècle. Cela permet de réaliser que cette dernière ne traite pas le complexe.
La force du credo platonicien
Nous sommes les héritiers de la pensée scientifique inaugurée par Descartes et Galilée mais dont les racines remontent aux Grecs. Cette pensée se représente l’univers comme une « machine » - voire un automate - gouvernée par des lois dictant son fonctionnement et lui imposant un ordre qui le rend intelligible.
Nous sommes les héritiers de la pensée scientifique inaugurée par Descartes et Galilée mais dont les racines remontent aux Grecs. Cette pensée se représente l’univers comme une « machine » - voire un automate - gouvernée par des lois dictant son fonctionnement et lui imposant un ordre qui le rend intelligible.
Selon cette philosophie platonicienne, le monde est fondamentalement ordonné, intrinsèquement simple. Aussi, dans la quête pour déchiffrer les lois nécessairement simples du monde, les scientifiques se sont désintéressés pendant longtemps de tout ce qui semblait être incompatible avec le credo platonicien, cela malgré les secousses dont il a fait l’objet à plusieurs reprises au cours de l’histoire.
Premières fissures
Ainsi, au XIXe siècle, dans l’état gazeux, état éminemment désordonné, Maxwell, Boltzmann... décèlent de la régularité : celle des moyennes. Cette régularité, constatée également dans les phénomènes sociaux (mariages, crimes, maladies...) est d’ailleurs source d’inspiration pour les thermodynamiciens.
En biologie, et pour Darwin, des variations relevant du hasard conjuguées à une sélection aveugle créent l’ordre de l’arbre du vivant.
Toujours au XIXe siècle, en mathématiques, science platonicienne par excellence où règnent le parfait et la certitude, on met sur pieds des fonctions « bizarres », continues mais nulle part dérivables par exemple... qui font désordre. Pour Henri Poincaré, il s’agit là de « monstres » sans intérêt qui n’ont rien à voir avec les fonctions « honnêtes », qui elles sont utiles. « Les faits à petit rendement, ce sont les faits complexes » écrit Poincaré dans Science et méthode.
Nouvelles secousses
Premières fissures
Ainsi, au XIXe siècle, dans l’état gazeux, état éminemment désordonné, Maxwell, Boltzmann... décèlent de la régularité : celle des moyennes. Cette régularité, constatée également dans les phénomènes sociaux (mariages, crimes, maladies...) est d’ailleurs source d’inspiration pour les thermodynamiciens.
En biologie, et pour Darwin, des variations relevant du hasard conjuguées à une sélection aveugle créent l’ordre de l’arbre du vivant.
Toujours au XIXe siècle, en mathématiques, science platonicienne par excellence où règnent le parfait et la certitude, on met sur pieds des fonctions « bizarres », continues mais nulle part dérivables par exemple... qui font désordre. Pour Henri Poincaré, il s’agit là de « monstres » sans intérêt qui n’ont rien à voir avec les fonctions « honnêtes », qui elles sont utiles. « Les faits à petit rendement, ce sont les faits complexes » écrit Poincaré dans Science et méthode.
Nouvelles secousses
Au cours du XXe siècle, la philosophie platonicienne fait l’objet de nouvelles secousses qui l’ébranlent sérieusement et ouvrent la voie à la science de la complexité. Cela commence par la découverte du caractère insoluble du problème des « trois corps » et de ce que l’on appelle aujourd’hui le « chaos déterministe » par... Poincaré lui-même.
Ensuite, l’ingérence du hasard pur en physique quantique sème la zizanie. Dans les années 1930, le théorème "d’incomplétude" issu des travaux de Turing et de Gödel, montrant l’inexistence de système axiomatique cohérent et complet pour l’arithmétique, crée une crise profonde en mathématiques car il ébranle de solides "certitudes".
Ces travaux se prolongent ensuite au cours des années 1960 par ceux de Gregory Chaitin qui posent les bases de la théorie algorithmique de l’information et montre que certaines questions posées dans le cadre de la théorie des nombres ont une réponse... aléatoire.
Une géométrie "monstrueuse"
Puis, le mathématicien franco-américain Benoît Mandelbrot reprend et développe dans les années 1970 des études initiées près de 50 ans plus tôt par Gaston Julia (1893-1978) sur ce que l’on désigne aujourd’hui par "fractals", une géométrie "monstrueuse".
"Entre le domaine du chaos incontrôlé et l’ordre excessif d’Euclide, il y a désormais une nouvelle zone d’ordre fractal" écrit Mandelbrot. L’harmonie des cieux est à son tour ébranlée lorsque plus récemment Jacques Laskar, chercheur à l’observatoire de Paris et médaille d’argent du CNRS (1994), montre que le système solaire n’est pas stable à long terme.
Toutes ces découvertes contribuent ainsi à questionner, voire à mettre en cause, la foi scientifique en un univers profondément simple, harmonieux et intelligible, ainsi que l’un des piliers philosophiques de la recherche, le principe du rasoir d’Occam, selon lequel les meilleures théories sont à l’image du monde : simples.
Ensuite, l’ingérence du hasard pur en physique quantique sème la zizanie. Dans les années 1930, le théorème "d’incomplétude" issu des travaux de Turing et de Gödel, montrant l’inexistence de système axiomatique cohérent et complet pour l’arithmétique, crée une crise profonde en mathématiques car il ébranle de solides "certitudes".
Ces travaux se prolongent ensuite au cours des années 1960 par ceux de Gregory Chaitin qui posent les bases de la théorie algorithmique de l’information et montre que certaines questions posées dans le cadre de la théorie des nombres ont une réponse... aléatoire.
Une géométrie "monstrueuse"
Puis, le mathématicien franco-américain Benoît Mandelbrot reprend et développe dans les années 1970 des études initiées près de 50 ans plus tôt par Gaston Julia (1893-1978) sur ce que l’on désigne aujourd’hui par "fractals", une géométrie "monstrueuse".
"Entre le domaine du chaos incontrôlé et l’ordre excessif d’Euclide, il y a désormais une nouvelle zone d’ordre fractal" écrit Mandelbrot. L’harmonie des cieux est à son tour ébranlée lorsque plus récemment Jacques Laskar, chercheur à l’observatoire de Paris et médaille d’argent du CNRS (1994), montre que le système solaire n’est pas stable à long terme.
Toutes ces découvertes contribuent ainsi à questionner, voire à mettre en cause, la foi scientifique en un univers profondément simple, harmonieux et intelligible, ainsi que l’un des piliers philosophiques de la recherche, le principe du rasoir d’Occam, selon lequel les meilleures théories sont à l’image du monde : simples.
Et si le monde n’était pas simple ?
Cette réaction contre l’emprise du paradigme de la simplification est également favorisée par les études menées à partir des années 1950 dans différentes disciplines telles que la cybernétique, la systémique, l’intelligence artificielle, l’informatique, la théorie de l’information...
Notons tout de même que dans Le nouvel esprit scientifique, Bachelard posait déjà en 1934 les fondements d’une épistémologie nouvelle, non cartésienne, en notant que le simple est en fait toujours du complexe simplifié. La science n’étudie pas un univers simple, mais un univers complexe qu’elle dénature en le simplifiant, puis en le confondant avec la réalité.
Le réductionnisme désapprouvé
L’épistémologie nouvelle est non-cartésienne en ce sens qu’elle n’approuve plus le réductionnisme, lequel éclate le système en une multitude de parties pour les analyser chacune séparément avant de les remettre ensemble. Les propriétés d’une molécule d’eau ne sont pas celles, combinées, de l’hydrogène et de l’oxygène. Le tout n’est pas la somme des parties disait Aristote. L’étude séparée de chacune des fourmis d’une colonie ne permet pas non plus de rendre compte du comportement de la colonie elle-même.
Une nouvelle propriété peut ainsi émerger de l’interaction des « agents » d’un système, l’émergence et l’auto-organisation étant deux des aspects les plus caractéristiques des systèmes complexes. Face à ces constats, comment la science doit-elle se positionner ? Comment la recherche scientifique peut-elle traiter la complexité ?
Les recherches dans le domaine de la complexité
La notion de complexité englobe tant de situations différentes qu’il est difficile de la définir de manière unique. Néanmoins, on peut caractériser les systèmes complexes par notre incapacité à expliquer ou à prédire leur comportement : nous sommes démunis pour expliquer le comportement organisé d’une colonie de fourmis, de même que pour prédire la survenue d’un tremblent de terre ou d’un krach boursier.
La complexité algorithmique
En théorie de l’information, il existe cependant une définition précise, non anthropocentrique, issue des travaux de mathématiciens, notamment de Chaitin, Kolmogorov ou Solomonoff.
Cette complexité - dite algorithmique ou de Kolmogorov - est mesurée par la quantité d’informations nécessaire à la définition d’une chose. Par exemple, il n’est pas nécessaire de donner la suite - pourtant infinie - des chiffres du nombre 39,478417... pour le définir. Son contenu informationnel, bien que non trivial, est faible et se résume à : « carré du rapport entre le périmètre et le rayon d’un cercle ».
Par comparaison, la complexité des 100 derniers tirages du Loto est plus grande car on ne peut exhiber ces résultats autrement qu’en donnant la liste dont la longueur est de l’ordre de 1000 chiffres : le résumé est aussi long que la liste elle-même !
Une complexité impossible à calculer ?
De même, un texte de 100 pages tapé à la machine par un singe est plus complexe que 100 pages rédigées par Hegel. La complexité algorithmique se rattache ainsi à la compressibilité de l’information, si bien qu’on la définit par la taille du plus petit programme permettant de décrire une chose.
La question qui surgit alors immédiatement est : comment peut-on s’assurer, démontrer, que l’on dispose du plus petit programme ? On ne le peut pas. Aussi, la complexité algorithmique est généralement impossible à calculer.
Les indécidables de la théorie
Cet échec ne résulte pas d’un manque de connaissance, mais d’une impossibilité logique, démontrée par Gödel, selon laquelle certains énoncés pourtant vrais dans le cadre d’une théorie ne sont pas démontrables au sein même de la théorie : ce sont les indécidables de la théorie. De nombreuses recherches se poursuivent dans le domaine de la complexité algorithmique ; citons le Laboratoire Algorithmique, Complexité et Logique du CNRS
Automates cellulaires : un monde "essentiellement simple" ?
Pour le biologiste, la complexité algorithmique présente malgré tout un immense intérêt d’un point de vue théorique car l’ADN représente justement une sorte de programme...
Pour le physicien, cette complexité se rattache à des notions de thermodynamique : entropie de Boltzmann et flèche du temps, la taille du programme étant liée au degré de désordre. Or, ce dernier est lui-même un sujet de réflexion aigu. En effet, le chaos déterministe en dynamique non linéaire produit des séquences algorithmiquement complexes, imprédictible, bien que résultant de lois physiques simples et connues. Le désordre, dit-on de ces systèmes chaotiques, masque souvent un ordre sous-jacent.
Une complexité résultant de lois ?
De même que cette complexité chaotique amenant un certain désordre apparent est issue de lois, ne se pourrait-il pas que la complexité de l’organisation du monde résulte également de lois ? A titre d’exemple, l’observation de l’ensemble fractal de Mandelbrot, "zoomable" à l’infini, pourrait a priori laisser penser que l’algorithme permettant de l’engendrer est complexe, alors qu’il n’en est rien : quelques lignes de programme suffisent. La complexité de cet ensemble est donc une illusion.
Pour le biologiste, la complexité algorithmique présente malgré tout un immense intérêt d’un point de vue théorique car l’ADN représente justement une sorte de programme...
Pour le physicien, cette complexité se rattache à des notions de thermodynamique : entropie de Boltzmann et flèche du temps, la taille du programme étant liée au degré de désordre. Or, ce dernier est lui-même un sujet de réflexion aigu. En effet, le chaos déterministe en dynamique non linéaire produit des séquences algorithmiquement complexes, imprédictible, bien que résultant de lois physiques simples et connues. Le désordre, dit-on de ces systèmes chaotiques, masque souvent un ordre sous-jacent.
Une complexité résultant de lois ?
De même que cette complexité chaotique amenant un certain désordre apparent est issue de lois, ne se pourrait-il pas que la complexité de l’organisation du monde résulte également de lois ? A titre d’exemple, l’observation de l’ensemble fractal de Mandelbrot, "zoomable" à l’infini, pourrait a priori laisser penser que l’algorithme permettant de l’engendrer est complexe, alors qu’il n’en est rien : quelques lignes de programme suffisent. La complexité de cet ensemble est donc une illusion.
Selon l’américain Wolfram, le « pape » des automates cellulaires, il en est de même de tout ce qui nous entoure : l’univers est essentiellement simple. A l’aide d’un modèle d’automates cellulaires régis par quelques règles simples, Wolfram parvient à simuler parfaitement le comportement d’un banc de sardines, depuis leur auto-organisation se traduisant par des mouvements d’ensemble jusqu’à leurs changements brusques de directions.
Cependant, cela ne prouve pas que tous les systèmes auto-organisés - pas même les bancs de sardines - suivent "réellement" ce type d’algorithme. Signalons également que c’est à l’aide d’automates cellulaires que Marianne Delorme (université Claude Bernard) et Jacques Mazoyer (IUFM de Lyon) étudient notamment la circulation routière.
Cependant, cela ne prouve pas que tous les systèmes auto-organisés - pas même les bancs de sardines - suivent "réellement" ce type d’algorithme. Signalons également que c’est à l’aide d’automates cellulaires que Marianne Delorme (université Claude Bernard) et Jacques Mazoyer (IUFM de Lyon) étudient notamment la circulation routière.
L’étude des systèmes critiques auto-organisés (SOC)
On retrouve ce genre de comportement collectif ou coopératif dans beaucoup d’autres situations : les avalanches dans un tas de sable, l’orientation des moments magnétiques dans un ferromagnétique, les feux de forêts, les embouteillages, les fluctuations boursières, les guerres...
Y a-t-il un lien profond unissant tous ces systèmes ou s’agit-il seulement d’une ressemblance superficielle ? Les recherches montrent qu’un tel lien existe bel et bien. Malgré leur grande diversité, ces systèmes que l’on désigne alors par systèmes critiques auto-organisés - ou SOC - manifestent des propriétés dites universelles.
La loi de puissance
La signature la plus caractéristique de ces systèmes est leur bruit en 1/f que l’on désigne aussi par loi de puissance (où la puissance de f est proche de 1) : on constate en effet que les fréquences f des tremblements de terre, par exemple, se distribuent de manière inversement proportionnelle à leur violence (loi de Gutenberg-Richter).
Il en est de même des feux de forêts, des embouteillages, des changements de directions des sardines et des moments magnétiques, de la lumière émise par les quasars...
Le bruit en 1/f montre que les évènements de grande amplitude se distribuent de la même façon que ceux de faible amplitude : le système n’exhibe aucune échelle caractéristique, si bien que l’on parle d’invariance d’échelle. On rencontre une situation analogue lors de certaines transitions de phase en thermodynamique - les transitions de second ordre - comme lors du franchissement du point critique par un liquide. Au « point critique », les fluctuations de densité et de température ne se produisent plus uniquement à l’échelle microscopique mais à toutes les échelles, y compris macroscopiques.
Pourquoi "critique" ?
Le caractère invariant d’échelle des SOC nous ramène aux fractals et à la notion d’auto-similarité qui indiquent que ce sont les mêmes mécanismes qui déclenchent les évènements de faibles amplitudes et ceux beaucoup plus violents, lesquels ne représentent donc rien de remarquable. Inutile donc de leur chercher une cause spécifique.
Le terme critique se réfère justement à l’état invariant d’échelle du système : une petite cause peut avoir une petite conséquence, comme elle peut déclencher une catastrophe. Or, la réponse d’un système à l’équilibre est proportionnelle, linéaire à la cause, si bien que les grands changements ne peuvent survenir que consécutivement à de grandes causes... lesquelles sont rares.
Des systèmes hors d’équilibre
Si le monde était à l’équilibre, il n’évoluerait presque pas. Comme le souligne Pascal Bernard de l’Institut de physique du globe de Paris, les avalanches des grains de sable et les séismes ne sont pas les seuls exemples du processus SOC, lequel peut être appliqué à certains aspects de la vie mentale, économique, biologique, sociale ou politique . Même si les SOC sont statistiquement stationnaires, ils ne sont justement pas à l’équilibre ; d’un point de vue thermodynamique, ce sont des systèmes ouverts hors équilibre.
Ce domaine dont deux des exemples emblématiques sont les réactions autocatalytiques de type Belousov-Zhabotinski et les cellules de Bénard, a fait l’objet de nombreuses recherches, notamment par Prigogine et Nicolis. Les SOC passent spontanément d’un état critique à un autre où ils séjournent quelque temps. On obtient ainsi une évolution de type équilibre ponctué introduit en théorie de l’évolution des espèces par Gould et Eldridge (1977), un schéma qui semble se situer au cœur de la dynamique des SOC. Cela pourrait signifier que les espèces sont des états critiques au niveau desquels l’évolution s’opère.
Vers un nouveau champ de recherche ?
Beaucoup pensent que la science du XXIe siècle sera essentiellement portée vers l’étude des systèmes complexes. S’agissant d’une science très jeune, le terrain est encore assez vierge et il n’y a pas de consensus. Pour les uns, l’approche des automates cellulaires est stérile, pour les autres, les SOC constituent un univers surtout verbal qui présente peu d’intérêt.
Quoi qu’il en soit, il semble assez clair qu’une approche véritablement nouvelle du problème de la complexité fasse actuellement défaut, les travaux s’effectuant de manière buissonnante selon la tradition scientifique classique.
Un nouveau champ de recherche à investir ?
Edgar Morin
Article de Wikipedia
E Morin - Le défi de la complexité
Herbert A Simon - Sur la complexité des systèmes complexes - 1976
LECTURESOn retrouve ce genre de comportement collectif ou coopératif dans beaucoup d’autres situations : les avalanches dans un tas de sable, l’orientation des moments magnétiques dans un ferromagnétique, les feux de forêts, les embouteillages, les fluctuations boursières, les guerres...
Y a-t-il un lien profond unissant tous ces systèmes ou s’agit-il seulement d’une ressemblance superficielle ? Les recherches montrent qu’un tel lien existe bel et bien. Malgré leur grande diversité, ces systèmes que l’on désigne alors par systèmes critiques auto-organisés - ou SOC - manifestent des propriétés dites universelles.
La loi de puissance
La signature la plus caractéristique de ces systèmes est leur bruit en 1/f que l’on désigne aussi par loi de puissance (où la puissance de f est proche de 1) : on constate en effet que les fréquences f des tremblements de terre, par exemple, se distribuent de manière inversement proportionnelle à leur violence (loi de Gutenberg-Richter).
Il en est de même des feux de forêts, des embouteillages, des changements de directions des sardines et des moments magnétiques, de la lumière émise par les quasars...
Le bruit en 1/f montre que les évènements de grande amplitude se distribuent de la même façon que ceux de faible amplitude : le système n’exhibe aucune échelle caractéristique, si bien que l’on parle d’invariance d’échelle. On rencontre une situation analogue lors de certaines transitions de phase en thermodynamique - les transitions de second ordre - comme lors du franchissement du point critique par un liquide. Au « point critique », les fluctuations de densité et de température ne se produisent plus uniquement à l’échelle microscopique mais à toutes les échelles, y compris macroscopiques.
Pourquoi "critique" ?
Le caractère invariant d’échelle des SOC nous ramène aux fractals et à la notion d’auto-similarité qui indiquent que ce sont les mêmes mécanismes qui déclenchent les évènements de faibles amplitudes et ceux beaucoup plus violents, lesquels ne représentent donc rien de remarquable. Inutile donc de leur chercher une cause spécifique.
Le terme critique se réfère justement à l’état invariant d’échelle du système : une petite cause peut avoir une petite conséquence, comme elle peut déclencher une catastrophe. Or, la réponse d’un système à l’équilibre est proportionnelle, linéaire à la cause, si bien que les grands changements ne peuvent survenir que consécutivement à de grandes causes... lesquelles sont rares.
Des systèmes hors d’équilibre
Si le monde était à l’équilibre, il n’évoluerait presque pas. Comme le souligne Pascal Bernard de l’Institut de physique du globe de Paris, les avalanches des grains de sable et les séismes ne sont pas les seuls exemples du processus SOC, lequel peut être appliqué à certains aspects de la vie mentale, économique, biologique, sociale ou politique . Même si les SOC sont statistiquement stationnaires, ils ne sont justement pas à l’équilibre ; d’un point de vue thermodynamique, ce sont des systèmes ouverts hors équilibre.
Ce domaine dont deux des exemples emblématiques sont les réactions autocatalytiques de type Belousov-Zhabotinski et les cellules de Bénard, a fait l’objet de nombreuses recherches, notamment par Prigogine et Nicolis. Les SOC passent spontanément d’un état critique à un autre où ils séjournent quelque temps. On obtient ainsi une évolution de type équilibre ponctué introduit en théorie de l’évolution des espèces par Gould et Eldridge (1977), un schéma qui semble se situer au cœur de la dynamique des SOC. Cela pourrait signifier que les espèces sont des états critiques au niveau desquels l’évolution s’opère.
Vers un nouveau champ de recherche ?
Beaucoup pensent que la science du XXIe siècle sera essentiellement portée vers l’étude des systèmes complexes. S’agissant d’une science très jeune, le terrain est encore assez vierge et il n’y a pas de consensus. Pour les uns, l’approche des automates cellulaires est stérile, pour les autres, les SOC constituent un univers surtout verbal qui présente peu d’intérêt.
Quoi qu’il en soit, il semble assez clair qu’une approche véritablement nouvelle du problème de la complexité fasse actuellement défaut, les travaux s’effectuant de manière buissonnante selon la tradition scientifique classique.
Un nouveau champ de recherche à investir ?
Edgar Morin
Article de Wikipedia
E Morin - Le défi de la complexité
Herbert A Simon - Sur la complexité des systèmes complexes - 1976
Wikipedia: la complexité
Wikipedia: Complex adaptive system
Wikipedia - Systémique
Priami - Complexity and Systemics
Heylighen - Foundations and Methodology for an evolutionary world view - 2000
J Zin - La complexité et son idéologie
Jean-Michel Cornu - Livre - la coopération nouvelles approches - 2004
Jean-Michel Cornu - résumé du livre la coopération nouvelles approches - 2004
Jean-Michel Cornu - la complexité - 2008
Emergence d'un paradigme de la diversite - 2007
MIT Sloan Management Review - innovating our way to a meltdown - 2009
MIT Sloan Management Review - understanding and managing complexity risk - 2009
Too Big To Manage - 2009
McKinseyQuaterly - Tackling IT complexity in product design - march 2010
BCG - Mastering Complexity - 2010
Chap 1 - Informatique théorique - Décidabilité et Complexite
Comment approcher la systémique
French Complex Systems Road Map 2008-2009
An Overview of Complex Adaptive Systems
PWC - Making Complexity Manageable - 2008
Wharton - smart growth - innovating without feeding complexity oct 2006
JL Lemoigne - complexité et confiance - 2004
EOLSS - The science of self-organized and adaptivity
IBM - Global CEO Study - Tirer parti de la complexité - 2010
McKinseyQuaterly - Putting organisationnal complexity in its place - Apr 2010
KPMG - confronting complexity - 2011
EMERGENCE
Wikipedia - émergence
Groupe emergence - Complexite des crises financieres - 2010
Groupe emergence - les modèles de dynamique des sytèmes - outil de décision - 2009
Groupe emergence - Emergence et Management - 2010
Groupe emergence - introduction à la théorie de l'information - 2006
Groupe emergence - Systémique - 2010
Frédéric Fabre - Livre - Emergence et représentation - 2005
Corning - the re-emergence of emergence - 2002
Stanford Encyclopedia - emergent properties - 2006
University Helsinki - towards modeling of emergence
SITES
'Complexité
Théorie et pratique de la systémique et de la complexité
L'association pour la pensée complexe
Jean-Michel Cornu: la complexité
Institut des Systèmes Complexes Paris Ile-de-France
X - Thalès - Club ingénièrie systèmes complexes
Santa Fe Institute
http://pespmc1.vub.ac.be/COMSELLI.html complexity self-org
http://pespmc1.vub.ac.be/CYBSYSLI.html > Links on Cybernetics and Systems
http://www.irit.fr/COSI/ complexity in social science
http://pcp.lanl.gov/NUTSHELL.html Overview of Principia Cybernetica
http://cssociety.org/tiki-index.php complex systems society
http://iscpif.fr/tiki-index.php French chapter
http://iegd.institut.online.fr/index.htm institute de genie décisionnel
http://www.mcxapc.org/ < http://www.mcxapc.org/ > Programme européen MCX "Modélisation de la CompleXité"
http://www.art-sciencefactory.com/complexity-m
http://www.ifeas.org/
http://www.systemique.levillage.org/
J Zin - La complexité et son idéologie
Jean-Michel Cornu - Livre - la coopération nouvelles approches - 2004
Jean-Michel Cornu - résumé du livre la coopération nouvelles approches - 2004
Jean-Michel Cornu - la complexité - 2008
Emergence d'un paradigme de la diversite - 2007
MIT Sloan Management Review - innovating our way to a meltdown - 2009
MIT Sloan Management Review - understanding and managing complexity risk - 2009
Too Big To Manage - 2009
McKinseyQuaterly - Tackling IT complexity in product design - march 2010
BCG - Mastering Complexity - 2010
Chap 1 - Informatique théorique - Décidabilité et Complexite
Comment approcher la systémique
French Complex Systems Road Map 2008-2009
An Overview of Complex Adaptive Systems
PWC - Making Complexity Manageable - 2008
Wharton - smart growth - innovating without feeding complexity oct 2006
JL Lemoigne - complexité et confiance - 2004
EOLSS - The science of self-organized and adaptivity
IBM - Global CEO Study - Tirer parti de la complexité - 2010
McKinseyQuaterly - Putting organisationnal complexity in its place - Apr 2010
KPMG - confronting complexity - 2011
Aucun article
EMERGENCE
Wikipedia - émergence
Groupe emergence - Complexite des crises financieres - 2010
Groupe emergence - les modèles de dynamique des sytèmes - outil de décision - 2009
Groupe emergence - Emergence et Management - 2010
Groupe emergence - introduction à la théorie de l'information - 2006
Groupe emergence - Systémique - 2010
Frédéric Fabre - Livre - Emergence et représentation - 2005
Corning - the re-emergence of emergence - 2002
Stanford Encyclopedia - emergent properties - 2006
University Helsinki - towards modeling of emergence
SITES
'Complexité
Théorie et pratique de la systémique et de la complexité
L'association pour la pensée complexe
Jean-Michel Cornu: la complexité
Institut des Systèmes Complexes Paris Ile-de-France
X - Thalès - Club ingénièrie systèmes complexes
Santa Fe Institute
http://pespmc1.vub.ac.be/COMSELLI.html complexity self-org
http://pespmc1.vub.ac.be/CYBSYSLI.html > Links on Cybernetics and Systems
http://www.irit.fr/COSI/ complexity in social science
http://pcp.lanl.gov/NUTSHELL.html Overview of Principia Cybernetica
http://cssociety.org/tiki-index.php complex systems society
http://iscpif.fr/tiki-index.php French chapter
http://iegd.institut.online.fr/index.htm institute de genie décisionnel
http://www.mcxapc.org/ < http://www.mcxapc.org/ > Programme européen MCX "Modélisation de la CompleXité"
http://www.art-sciencefactory.com/complexity-m
http://www.ifeas.org/
http://www.systemique.levillage.org/