Théorème de Lochs — Wikipédia

En mathématiques, et plus précisément en analyse, le théorème de Lochs, démontré en 1964 par Gustav Lochs (de), un élève de Kurt Reidemeister[1], est un résultat concernant la vitesse de convergence du développement en fraction continue d'un nombre réel typique.

Énoncé[modifier | modifier le code]

Pour presque tous les nombres réels de l'intervalle ]0, 1[, le nombre m de termes du développement de ce réel en fraction continue permettant d'en obtenir les n premières décimales a le comportement asymptotique suivant :

(suite A086819 de l'OEIS)[2].

On peut interpréter ce résultat comme affirmant que chaque terme supplémentaire de la représentation en fraction continue d'un réel « typique » donne une précision d'un peu plus d'une décimale supplémentaire. La base dix est d'ailleurs la plus grande base pour laquelle la représentation positionnelle est moins précise (à ce sens) que celle en fraction continue : en base onze, la constante correspondante, , devient supérieure à 1.

L'inverse de cette limite,

(suite A062542 de l'OEIS),

est le double du logarithme décimal de la constante de Lévy.

Notes et références[modifier | modifier le code]

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Lochs' theorem » (voir la liste des auteurs).
  1. (de) Gustav Lochs, « Vergleich der Genauigkeit von Dezimalbruch und Kettenbruch », Abh. Math. Semin. Univ. Hambg., vol. 27,‎ , p. 142-144 (DOI 10.1007/BF02993063).
  2. (en) Eric W. Weisstein, « Lochs' Theorem », sur MathWorld.

Bibliographie[modifier | modifier le code]