Questions du sujet
1. Montrer l’inégalité d’interpolation (I.2) avec $C = 1$. 2. Soit $C \in ]0, 1[$. À l’aide d’un exemple simple de fonction $f$, montrer que l’inégalité d’interpolation (I.2) est fausse. 3. Pour tous $x \in [0, 1]$ et $f \in \mathcal{C}^2([0, 1])$, démontrer l’inégalité \[ |\ f'(x) – \frac{f(x_2) – f(x_1)}{x_2 – x_1} | \leq \| f” \|_{\infty}. \] 4. En déduire que, pour toute fonction $f \in \mathcal{C}^2([0, 1])$, on a \[ \|f’\|_\infty \leq \|f”\|_\infty + \frac{|f(x_1)| + |f(x_2)|}{x_2 – x_1}. \] 5. Conclure le cas $K = 2$ en montrant l’inégalité d’interpolation (I.3) avec \[ C = 1 + \frac{1}{x_2 – x_1}. \]} 6. Démontrer que l’application \[ \Psi : \begin{array}{ccc} \mathbb{R}_{K-1}[X] &\to& \mathbb{R}^K \\ P &\mapsto& \left( P(x_1),\ldots, P(x_K) \right) \end{array} \] est un isomorphisme d’espaces vectoriels. 7. Montrer qu’il existe $K$ polynômes $L_1, …, L_K$ de $\mathbb{R}_{K-1}[X]$ tels que, pour toute fonction $f \in \mathcal{C}^K([0, 1])$, le polynôme $P = \sum_{j=1}^K f(x_j)L_j$ vérifie \[ \forall \ell \in \llbracket 1, K \rrbracket, \quad P(x_\ell) = f(x_\ell). \] 8. Pour tout $k \in \llbracket 0, K-1 \rrbracket$, montrer qu’il existe au moins $K – k$ réels distincts de $[0, 1]$ en lesquels la fonction $f^{(k)} – P^{(k)}$ s’annule. 9. En déduire l’inégalité $\|f^{(k)} – P^{(k)}\|_\infty \leq \|f^{(k+1)} – P^{(k+1)}\|_\infty$ pour tout $k \in \llbracket 0, K-1\rrbracket$. 10. Montrer qu’il existe une constante $C > 0$ pour laquelle l’inégalité d’interpolation (I.1) est vérifiée.} 11. Dans le cas particulier $[a, b] = [0, 1]$, justifier que la série $\sum f_n^{(k)}$ converge normalement sur $[a, b]$ pour tout $k \in \llbracket 0, K-1 \rrbracket$. 12. Traiter la question précédente dans le cas général d’un segment $[a, b]$ avec $a < b$. \textit{On pourra examiner $f_n \circ \sigma$ où $\sigma : [0, 1] \rightarrow [a, b]$ est définie par $\sigma(t) = (1 - t)a + tb$ pour tout $t \in [0, 1]$.} 13. Démontrer que $F_0$ est de classe $\mathcal{C}^K$ sur $[a, b]$ et que $F_0^{(k)} = F_k$ pour tout $k \in \llbracket 1, K\rrbracket$. 14. Pour tout $n \in \mathbb{N}^*$, justifier qu’il existe une unique fonction $f_n \in \mathcal{C}^2(]0, +\infty[)$ vérifiant $f_n(1) = 0$, $f_n(2) = 0$ et $f_n''(x) = (-1)^n 2^{-n} x^2$ pour tout $x>0$. 15. Montrer que la série de fonctions $\sum f_n(x)$ converge normalement sur tout segment inclus dans $]0, +\infty[$ et que la fonction $F: x \mapsto \sum_{n=1}^{+\infty} f_n(x)$ est de classe $\mathcal{C}^2$ sur $]0, +\infty[$.} 16. Expliciter $F”(x)$. 17. Montrer que $|F(x)| \leq \frac{1}{3}$ pour tout $x \in [1,2]$. 18. Justifier l’existence d’une suite strictement croissante d’entiers naturels $(\varphi(j))_{j \in \mathbb{N}}$ vérifiant \[ \forall j \in \mathbb{N}, \quad \sum_{n > \varphi(j)}^{+\infty} a_n^2 \leq \frac{1}{8^{j}}. \] 19. Exprimer l’espérance et la variance de $S_{\varphi(j+1)} – S_{\varphi(j)}$ en fonction des termes de la suite $(a_n)_{n \in \mathbb{N}}$. 20. Déduire des deux questions précédentes la majoration $\mathbb{P}(A_j) \leq 2^{-j}$.} 21. Pour tout $j \in \mathbb{N}$, démontrer que les évènements $B_{j,m}$, pour $m$ parcourant $\llbracket \varphi(j) + 1, \varphi(j+1)\rrbracket$, sont disjoints deux à deux et qu’on a l’égalité d’évènements \[ B_j = \bigcup_{\varphi(j) < m \leq \varphi(j+1)} B_{j,m}. \] 22. Expliquer comment en déduire la formule \[ \mathbb{P}(A_j) = \sum_{m = \varphi(j)+1}^{\varphi(j+1)} \mathbb{P}(A_j \cap B_{j,m}). \] 23. Soit $m \in \llbracket \varphi(j) + 1, \varphi(j+1)\rrbracket$, montrer que la fonction \[ \alpha \mapsto 2^{\varphi(j+1)-\varphi(j)} \, \mathbb{P} \left( \{ |\alpha S_{\varphi(j+1)} - \alpha S_m + S_m - S_{\varphi(j)}| > 2^{-j} \} \cap B_{j, m} \right) \] est à valeurs dans $\mathbb{N}$ et est paire. 24. Prouver que si l’évènement $B_j$ se réalise, alors il existe $m \in \llbracket \varphi(j) + 1, \varphi(j+1)\rrbracket$ et $\alpha \in \{-1, +1\}$ tels que l’évènement \[ \{ |\alpha S_{\varphi(j+1)} – \alpha S_m + S_m – S_{\varphi(j)}| > 2^{-j} \} \cap B_{j, m} \] se réalise également. 25. En déduire que $\mathbb{P}(B_j) \leq 2\mathbb{P}(A_j)$.} 26. On note $B$ l’évènement $\bigcap_{J \in \mathbb{N}} \bigcup_{j \geq J} B_j$. Montrer l’égalité $\mathbb{P}(B) = 0$. 27. Montrer que l’évènement \[ \{\exists J \in \mathbb{N}, \forall j \geq J, \forall n \in \llbracket \varphi(j)+1, \varphi(j+1)\rrbracket,\, |S_n – S_{\varphi(j)}| \leq 2^{-j}\} \] se réalise avec probabilité $1$. 28. En déduire que l’évènement \[ \{\text{la suite } (S_{\varphi(j)})_{j \in \mathbb{N}} \text{ est convergente}\} \] a également une probabilité $1$. \textit{On pourra examiner la série $\sum |S_{\varphi(j+1)}-S_{\varphi(j)}|$.} 29. Conclure que l’évènement \[ \{\text{la série } \sum X_n a_n \text{ est convergente}\} \] a une probabilité $1$. 30. Montrer que l’une des deux hypothèses (H2’) ou (H2) (étudiée dans la partie II) implique l’autre.} 31. Montrer que l’évènement \[ \left\{ \forall \ell \in \llbracket 1, K \rrbracket,\, \sum X_n f_n(x_\ell) \text{ est convergente} \right\} \] a une probabilité $1$. 32. On note $P_n \in \mathbb{R}_{K-1}[X]$ un polynôme vérifiant $P_n(x_\ell) = f_n(x_\ell)$ pour tout $\ell \in \llbracket 1, K\rrbracket$ (cf. question 7), montrer que l’évènement \[ \left\{ \begin{array}{l} \forall k \in \llbracket 0, K \rrbracket,\, \sum X_n (f_n – P_n)^{(k)} \text{ est uniformément convergente sur } [0, 1], \\ \sum_{n=0}^{+\infty} X_n(f_n – P_n) \text{ est de classe } \mathcal{C}^K, \\ \forall k \in \llbracket 0, K \rrbracket,\; \left(\sum_{n=0}^{+\infty} X_n(f_n-P_n)\right)^{(k)} = \sum_{n=0}^{+\infty} X_n(f_n – P_n)^{(k)} \end{array} \right\} \] a une probabilité $1$. 33. Montrer que l’évènement \[ \left\{ \begin{array}{l} \forall k \in \llbracket 0, K \rrbracket,\, \sum X_n f_n^{(k)} \text{ est uniformément convergente sur } [0, 1],\\ \sum_{n=0}^{+\infty} X_n f_n \text{ est de classe } \mathcal{C}^K,\\ \forall k \in \llbracket 0, K \rrbracket,\; \left(\sum_{n=0}^{+\infty} X_n f_n\right)^{(k)} = \sum_{n=0}^{+\infty} X_n f_n^{(k)} \end{array} \right\} \] a une probabilité $1$. 34. Donner un exemple d’entier $K \in \mathbb{N}^\ast$ pour lequel l’évènement précédent se réalise avec les fonctions $f_n$ définies par \[ \left\{ \begin{array}{l} f_0 = 0,\\ f_n(x) = \ln \left(1 + \sin(x^n)\right)\quad \forall n \in \mathbb{N}^\ast,\,\forall x \in [0,1]. \end{array} \right. \] }FAQ
Une inégalité d’interpolation relie les normes d’une fonction et de ses dérivées (par exemple — sup des dérivées d’ordres différents) par une constante indépendante de la fonction. Dans l’épreuve elle sert à contrôler à la fois les valeurs ponctuelles et les normes uniformes des dérivées pour passer d’un contrôle local (quelques points, valeurs spectrales) à un contrôle global (norme ∞). Comprendre ce type d’inégalités facilite la majoration des restes d’interpolation et l’analyse des séries de fonctions.
Une constante trop petite ne peut pas compenser des fonctions qui ont une pente très concentrée ou des oscillations fines : on construit alors des fonctions qui rendent le membre de gauche arbitrairement grand par rapport au membre de droite. Le raisonnement type est de considérer des fonctions avec second dérivé petite mais variation locale importante (ou des dilatations) pour produire un contre‑exemple. Cela illustre l’importance du choix de la constante dans les inégalités d’interpolation.
L’idée standard est d’appliquer la formule de Taylor avec reste intégral (ou le théorème des accroissements finis plusieurs fois) pour exprimer f(x2)-f(x1) en fonction de f'(x) et d’un terme faisant intervenir f” sur l’intervalle. On obtient alors une majoration du type |f'(x)-quotient| ≤ sup_{[0,1]}|f”| ; c’est un usage direct de la borne uniforme sur la seconde dérivée pour encadrer le terme d’erreur.
Pour K points distincts, envoyer un polynôme de degré ≤ K-1 sur ses valeurs aux K points est bijectif : deux polynômes de degré ≤ K-1 coïncidant en K points distincts sont égaux. Ainsi Ψ est un isomorphisme linéaire. Les polynômes de Lagrange forment la base duale associée : L_j vaut 1 en x_j et 0 en x_ℓ (ℓ ≠ j), ce qui permet de construire explicitement l’interpolant P = Σ f(x_j)L_j et d’utiliser ses propriétés pour contrôler restes et dérivées.
Si f et P coïncident en K points distincts, leurs différences et dérivées successives ont un nombre croissant de zéros (Rolle itéré). En particulier, f^{(k)}-P^{(k)} s’annule en au moins K-k points, ce qui permet d’obtenir des inégalités reliant les normes uniformes des dérivées d’ordres successifs et, par récurrence, des bornes du type ||f^{(k)}-P^{(k)}||_∞ ≤ ||f^{(k+1)}-P^{(k+1)}||_∞. C’est le mécanisme clé pour établir une inégalité d’interpolation globale.
Une série Σ f_n converge normalement si il existe une suite positive M_n telle que |f_n(x)| ≤ M_n pour tout x et Σ M_n converge. La conclusion est la convergence uniforme absolue de la série. Concrètement, on utilise le critère de Weierstrass (M-test) : majorer chaque fonction et ses dérivées par une suite sommable (souvent via bornes sur les dérivées ou les coefficients) garantit convergence normale sur tout segment.
On utilise une homothétie affine σ : [0,1]→[a,b], σ(t)=(1-t)a+tb. Composer f_n par σ ramène l’analyse au segment [0,1] : normes, dérivées et bornes se transforment de façon explicite (dérivées multipliées par constantes liées à b-a). C’est la recette standard pour adapter les majorations et les tests de convergence à un intervalle quelconque.
Plusieurs outils sont usuels : contrôle des espérances et variances (linéarité de l’espérance, variance d’une somme pour variables indépendantes), inégalités de Markov/Chebyshev, le lemme de Borel‑Cantelli et des arguments de sous‑suites (extraction de φ(j) pour contrôler les queues). Selon la nature des X_n (signes indépendants centrés, Gaussiens…), on utilise aussi des inégalités de concentration ou le critère de Kolmogorov pour séries indépendantes.
Si les X_k sont des variables aléatoires indépendantes centrées (E[X_k]=0) de variance Var(X_k)=σ_k^2, alors E[S_n]=0 et Var(S_n)=Σ_{k=1}^n a_k^2 Var(X_k). Dans le cas classique de variables symétriques prenant ±1 avec probabilité 1/2, Var(X_k)=1 et donc Var(S_n)=Σ_{k=1}^n a_k^2. Ces formules sont la pierre d’angle pour appliquer Chebyshev ou pour construire des sous‑suites aux queues petites.
On choisit φ(j) de sorte que la somme des carrés des coefficients au delà de φ(j) soit très petite (par exemple < 2^{-j}): cela rend la variance des queues petite et, via inégalités de concentration/Chebyshev et Borel‑Cantelli, on obtient des probabilités de dépassement sommables. C’est la technique usuelle pour démontrer la convergence presque sûre en extrayant une suite où les restes deviennent négligeables.
Ces hypothèses sont souvent des formulations différentes d’une même condition de contrôle (par exemple sommabilité des normes ou contrôle uniforme des dérivées) adaptées à deux parties de la preuve. Montrer l’implication réciproque signifie que les formulations sont interchangeables pour l’objectif visé : l’une est parfois plus commode pour estimer des variances, l’autre pour appliquer des inégalités d’interpolation. L’essentiel est d’identifier les quantités à majorer et de traduire correctement les hypothèses entre elles.
On découpe chaque f_n en P_n (polynôme d’interpolation d’ordre K-1) et le reste r_n=f_n-P_n. Montrer que Σ X_n P_n converge ponctuellement aux points d’interpolation et que Σ X_n r_n converge uniformément (et pour les dérivées jusqu’à l’ordre K) permet de reconstituer la convergence C^K de la somme. Le contrôle des r_n s’appuie sur l’inégalité d’interpolation et la convergence normale; pour la suite complète des démonstrations, débloque le corrigé sur Prépa Booster pour accéder au suivi détaillé et au dashboard personnalisé.