Definition

théorie du chaos

La théorie du chaos est un domaine de la dynamique déterministe qui avance que des éléments en apparence aléatoires peuvent résulter d'équations normales du fait de la complexité du système impliqué. En informatique, la théorie du chaos s'applique à de nombreux domaines notamment les réseaux, l'analytique du Big Data, la logique floue, l'informatique décisionnelle (BI, Business Intelligence), le marketing, la théorie des jeux, la pensée systémique, l'analytique prédictive et les réseaux sociaux.

Dans un contexte scientifique, le terme chaos revêt une signification légèrement différente de l'usage général qui décrit un état de confusion, une absence totale d'ordre. Par rapport à la théorie du chaos, le chaos désigne un manque apparent d'ordre au sein d'un système qui obéit cependant à des lois ou des règles spécifiques. En ce sens, chaos est synonyme d'instabilité dynamique, un état découvert par le physicien Henri Poincaré au début du 20e siècle, et qui désigne un manque inhérent de prévisibilité dans certains systèmes physiques. 

Les deux principaux constituants de la théorie du chaos sont l'idée que les systèmes – quelle que soit leur complexité – s'appuient sur un ordre sous-jacent, et que des systèmes et événements très simples ou de faible envergure peuvent engendrer des comportements ou événements très complexes. Cette dernière idée est connue sous le nom de sensibilité aux conditions initiales, une circonstance découverte par Edward Lorenz (qui est généralement reconnu comme le premier expérimentateur dans le domaine du chaos) au début des années 1960.

Météorologiste, Edward Lorenz applique des équations informatisées pour modéliser et prévoir des conditions météorologiques de manière théorique. Après avoir appliqué une séquence particulière, il décide de la reproduire. Lorenz entre à nouveau la valeur issue de son résultat imprimé, prise en milieu de séquence, et laisse le traitement s'exécuter. Contrairement à ses attentes, il découvre que les résultats obtenus sont alors radicalement différents des premiers. En fait, Lorenz n'a pas précisément entré le même nombre – 0,506127 – mais un arrondi : 0,506. Selon toute attente scientifique de l'époque, la séquence résultante n'aurait dû diverger que légèrement par rapport à l'essai d'origine. En effet, une mesure à trois chiffres après la virgule était alors considérée comme raisonnablement précise. Etant donné que ces deux nombres étaient considérés comme pratiquement identiques, les résultats auraient dû se révéler, eux aussi, similaires. 

Or l'expérimentation répétée prouve qu'il en est autrement. Lorenz conclut donc que la moindre différence dans des conditions initiales – dépassant la capacité humaine à la mesurer – rend impossible la prévision de résultats passés ou futurs ; une idée qui allait à l'encontre des conventions de base de la physique. Comme le fait remarquer alors le célèbre physicien Richard Feynman, les physiciens tendent à penser que les seules questions à résoudre sont du type : « Voilà les conditions actuelles, que va-t-il arriver maintenant ? ».

Les lois de la physique de Newton sont totalement déterministes : elles supposent qu'au moins en théorie, des mesures précises sont possibles, et qu'une mesure plus précise de toute condition induira des prévisions plus précises quant à des conditions passées ou futures. L'hypothèse stipule qu'au moins en théorie, il est possible d'établir des prévisions quasi-parfaites quant au comportement d'un système physique, dès lors que des mesures sont suffisamment précises, et que plus les mesures initiales sont précises, plus précises sont les prévisions résultantes. 

Henri Poincaré découvre que dans certains systèmes astronomiques (constitués en général de trois corps en interaction ou plus), même de très petites erreurs dans les mesures initiales sont susceptibles de déboucher sur une imprévisibilité considérable, particulièrement disproportionnée par rapport à ce qui est mathématiquement attendu. Plusieurs ensembles de mesures de conditions initiales – qui selon la physique de Newton déboucheraient sur des résultats identiques – conduisent, en réalité, le plus souvent à des résultats considérablement différents. Henri Poincaré prouve mathématiquement que, même si les mesures initiales peuvent être rendues un million de fois plus précises, l'incertitude de prévision des résultats ne diminue pas de pair avec l'imprécision de mesure, mais reste, au contraire, considérable. A moins que des mesures initiales puissent être absolument définies – ce qui est impossible – une prévisibilité de systèmes complexes – chaotiques – fonctionne à peine mieux que si les prévisions étaient extraites aléatoirement de résultats possibles.

Décrit pour la première fois par Edward Lorenz, lors de la réunion de l'American Association for the Advancement of Science, qui s'est tenue à Washington, D. C. en décembre 1972, l'effet papillon illustre de manière saisissante l'idée essentielle de la théorie du chaos. Dans un article de 1963, rédigé pour la New York Academy of Sciences, Edward Lorenz cite l'argument d'un météorologue anonyme qui avance que, si la théorie du chaos se révélait vraie, un seul battement d'aile d'une seule mouette suffirait à changer le comportement de tous les systèmes météorologiques futurs sur Terre. 

Avant la réunion de 1972, Edward Lorenz examine et affine cette idée pour son discours intitulé « Predictability: Does the Flap of a Butterfly's Wings in Brazil set off a Tornado in Texas? » (Prévisibilité : un battement d'ailes de papillon au Brésil déclenche-t-il une tornade au Texas ?). L'exemple d'un système aussi petit que le papillon responsable d'un système aussi lointain et aussi grand qu'une tornade au Texas est là pour illustrer l'impossibilité de faire des prévisions dans le cas de systèmes complexes. En effet, malgré le fait que ceux-ci sont déterminés par des conditions sous-jacentes, la nature précise de ces conditions ne sera jamais suffisamment appréhendée pour permettre des prévisions de long terme.

Si le chaos est souvent considéré comme une référence à un caractère aléatoire et à l'absence d'ordre, il est plus précis de le considérer comme un état aléatoire apparent qui résulte de systèmes complexes et d'interactions entre systèmes. Selon James Gleick, auteur de La théorie du chaos : Vers une nouvelle science, la théorie du chaos est une révolution non pas technologique, comme le laser ou l'informatique, mais une révolution des idées. Cette révolution a commencé avec un ensemble d'idées relatives au désordre dans la nature : de la turbulence dans les fluides aux propagations imprévisibles des épidémies, en passant par les tressautements arythmiques du coeur humain dans les instants qui précèdent la mort. Elle s'est poursuivie par un ensemble encore plus large d'idées qui serait à classer à la rubrique de la complexité.

Voici une brève présentation de la théorie du chaos :

 

Cette définition a été mise à jour en avril 2018

Pour approfondir sur Gestion et administration du Datacenter

Close