Aller au contenu

Centrale Maths 2 MP 2013

pour ajouter aux favoris
pour marquer comme fait

Corrigé de l’épreuve

Accès immédiat aux corrigés

Débloque tous les corrigés des écrits et oraux et optimise ta préparation aux concours.

Débloquer l’accès 🔓

Déjà inscrit ? Connecte-toi ici.

Énoncé de l’épreuve

💡 Si un sujet identique a été utilisé par le concours pour différentes filières, le sujet affiché ci-dessous peut-être celui d'une autre filière. Le contenu reste identique.

Signaler un problème technique avec cet énoncé

Questions du sujet

1. I.A.1) Soit $u$ un endomorphisme de $\mathbb{R}^n$. Montrer que $u$ est autoadjoint défini positif si et seulement si sa matrice dans n’importe quelle base orthonormée appartient à $S^{++}_n(\mathbb{R})$. 2. I.A.2) Montrer que si $S \in S^{++}_n(\mathbb{R})$, alors $S$ est inversible et $S^{-1} \in S^{++}_n(\mathbb{R})$. 3. I.B.1) Soit $v$ un endomorphisme de $\mathbb{R}^n$, autoadjoint défini positif et vérifiant $v^2 = u$, et soit $\lambda$ une valeur propre de $u$. Montrer que $v$ induit un endomorphisme de $\ker(u-\lambda \mathrm{Id})$ que l’on déterminera. 4. I.B.2) En déduire $v$, puis conclure. 5. I.B.3) Montrer qu’il existe un polynôme $Q$ à coefficients réels tel que $v = Q(u)$.} 6. I.C.1) Montrer que $^tAA \in S^{++}_n(\mathbb{R})$. 7. I.C.2) En déduire qu’il existe un unique couple $(O, S) \in O(n) \times S^{++}_n(\mathbb{R})$ tel que $A = OS$. 8. I.C.3) Déterminer les matrices $O$ et $S$ lorsque $A = \begin{pmatrix} 3 & 0 & -1 \\ \sqrt{2}/2 & 3\sqrt{2} & -3\sqrt{2}/2 \\ -\sqrt{2}/2 & 3\sqrt{2} & 3\sqrt{2}/2 \end{pmatrix}$. 9. I.D.1) Montrer que $O(n)$ est une partie compacte de $M_n(\mathbb{R})$. 10. I.D.2) Montrer que $S^+_n(\mathbb{R})$ est un fermé de $M_n(\mathbb{R})$.} 11. I.D.3) Montrer que $GL_n(\mathbb{R})$ est une partie dense de $M_n(\mathbb{R})$. 12. I.D.4) Soit $A \in M_n(\mathbb{R})$. Montrer qu’il existe un couple $(O, S) \in O(n) \times S^+_n(\mathbb{R})$ tel que $A = OS$. Un tel couple est-il unique ? 13. I.E) Soit $\varphi$ l’application de $O(n)\times S^{++}_n(\mathbb{R})$ dans $GL_n(\mathbb{R})$ définie par $\varphi(O, S) = OS$ pour tout couple $(O, S)$ de $O(n) \times S^{++}_n(\mathbb{R})$. Montrer que $\varphi$ est bijective, continue et que sa réciproque est continue. 14. II.A.1) Justifier que $^tA = U(^tB)U^{-1}$. 15. II.A.2.a) Montrer qu’il existe $\mu \in \mathbb{R}$ tel que $X + \mu Y \in GL_n(\mathbb{R})$.} 16. II.A.2.b) Montrer que $AX = XB$ et $AY = YB$. 17. II.A.2.c) Conclure. 18. II.A.3.a) Montrer que $BS^2 = S^2 B$, puis que $BS = SB$. 19. II.A.3.b) En déduire qu’il existe $O \in O(n)$ tel que $A = O B^t O$. 20. II.B.1) Montrer que si le système $(*)$ admet une solution dans $GL_n(\mathbb{R})$, alors les valeurs propres de $^tAA$ appartiennent à l’intervalle $[0, 1[$.} 21. II.B.2.a) Justifier que l’on peut chercher les solutions $X$ de $(*)$ sous la forme $X = U H$, avec $U \in O(n)$ et $H \in S^{++}_n(\mathbb{R})$. 22. II.B.2.b) Déterminer $H$. 23. II.B.2.c) Montrer l’existence d’une solution $X \in GL_n(\mathbb{R})$ de $(*)$ appartenant à $GL_n(\mathbb{R})$. 24. III.A) Montrer qu’à $x \in \mathbb{R}$ fixé, la suite $(P_p(x))_{p\in\mathbb{N}^*}$ vérifie une relation linéaire d’ordre 2, que l’on précisera. 25. III.B) Soit $x \in \mathbb{R}$ tel que $|2-x| < 2$. Après avoir justifié l’existence d’un unique $\theta \in ]0, \pi[$ tel que $2-x = 2\cos\theta$, déterminer $P_p(x)$ en fonction de $\sin((p + 1)\theta)$ et de $\sin(\theta)$.} 26. III.C) Déterminer les valeurs propres de $A_p$. 27. III.D) Montrer que $A_p$ est diagonalisable, et en déterminer une base de vecteurs propres, en précisant pour chacun la valeur propre associée. 28. IV.A) Montrer qu’il existe une unique matrice $A \in M_n(\mathbb{R})$ telle que $\forall M \in M_n(\mathbb{R}),\ f(M) = \mathrm{Tr}(AM)$. 29. IV.B.1) Justifier l’existence de $M_n = \sup\{f(O),\ O \in O(n)\}$. 30. IV.B.2) Justifier que $^tAA$ admet $n$ valeurs propres positives $\mu_1, \ldots, \mu_n$ comptées avec multiplicités.} 31. IV.B.3) Montrer que $M_n = \sup\{\mathrm{Tr}(D\Omega),\ \Omega \in O(n)\}$, où $D$ est la matrice diagonale, dont les éléments diagonaux sont $\sqrt{\mu_1}, \ldots, \sqrt{\mu_n}$. 32. IV.B.4) En déduire que $M_n = \sum_{k=1}^n \sqrt{\mu_k}$. 33. IV.C.1) Déterminer la matrice $A$ telle que $\forall M \in M_n(\mathbb{R}), f(M) = \mathrm{Tr}(AM)$. 34. IV.C.2) Montrer que $$ A^{-1} = \begin{pmatrix} 1 & -1 & 0 & \cdots & 0\\ 0 & 1 & -1 & \\ & & \ddots & \ddots & \\ & & & 1 & -1 \\ 0 & \cdots & 0 & 0 & 1 \end{pmatrix} $$ 35. IV.C.3) Déterminer les valeurs propres de $A^{-1} {}^tA^{-1}$.} 36. IV.C.4) Montrer que $M_n = \sum_{k=1}^n \frac{1}{2 \cos\frac{k\pi}{2n+1}}$. 37. IV.C.5) Donner un équivalent de $M_n$ lorsque $n$ tend vers $+\infty$.}

FAQ

I.A.1) Soit u un endomorphisme de R^n. Montrer que u est autoadjoint défini positif si et seulement si sa matrice dans n’importe quelle base orthonormée appartient à S^{++}_n(R).

Si u est autoadjoint et défini positif alors, dans toute base orthonormée, sa matrice est symétrique et pour tout vecteur non nul x on a x^T M x = <u(x),x> > 0, donc M ∈ S^{++}_n(R). Réciproquement, si la matrice de u dans une base orthonormée est dans S^{++}_n(R), elle est symétrique et définie positive, ce qui donne immédiatement que u est autoadjoint et défini positif (les propriétés sont invariantes par changement d’orthonormalité).

I.A.2) Montrer que si S ∈ S^{++}_n(R), alors S est inversible et S^{-1} ∈ S^{++}_n(R).

Si S ∈ S^{++}_n(R) alors pour tout x ≠ 0, x^T S x > 0 ; en particulier Ker S = {0} donc S est inversible. L’inverse d’une matrice symétrique est symétrique et, pour y ≠ 0, y^T S^{-1} y = (S^{-1}y)^T S (S^{-1}y) >0, donc S^{-1} est encore définie positive : S^{-1} ∈ S^{++}_n(R).

I.B.1) Soit v un endomorphisme autoadjoint défini positif vérifiant v^2 = u, et soit λ une valeur propre de u. Montrer que v induit un endomorphisme de ker(u-λ Id) que l’on déterminera.

Sur E_λ = Ker(u-λ Id) on a u_|E_λ = λ Id, donc v^2_|E_λ=λ Id. Comme v est autoadjoint et défini positif ses valeurs propres sont ≥ 0, d’où v_|E_λ=√λ Id. Autrement dit v laisse invariant chaque sous-espace propre de u et agit comme multiplication par √λ sur E_λ.

I.B.2) En déduire v, puis conclure.

En diagonalisant u dans une base orthonormée (u autoadjoint), u= Σ D Σ^T avec D diagonale contenant ses valeurs propres λ_i ≥ 0. La condition v^2=u et la positivité de v imposent v=Σ √D Σ^T : v a les mêmes vecteurs propres que u et les valeurs propres √λ_i. Ainsi il existe un unique carré positif de u, on conclut unicité et existence du radical positif.

I.B.3) Montrer qu’il existe un polynôme Q à coefficients réels tel que v = Q(u).

Puisque u est diagonalizable (autoadjoint), son spectre λ_1,…,λ_r contient un nombre fini de valeurs distinctes. On peut alors définir Q par interpolation de Lagrange sur ces valeurs en imposant Q(λ_i)=√λ_i. Le polynôme obtenu satisfait v=Q(u) (même action sur chaque sous-espace propre).

I.C.1) Montrer que ^tA A ∈ S^{++}_n(R).

Si A ∈ GL_n(R) alors ^tA A est symétrique et, pour x ≠ 0, x^T (^tA A) x = ||Ax||^2 >0, donc ^tA A ∈ S^{++}_n(R). (Si A n’est pas inversible on n’a que la positivité au sens semi-définie.)

I.C.2) En déduire qu’il existe un unique couple (O,S) ∈ O(n) × S^{++}_n(R) tel que A = OS.

C’est la décomposition polaire. Poser S=(^tA A)^{1/2}≥0 et O=A S^{-1}. Alors ^tO O = S^{-1} (^tA A) S^{-1} = I donc O ∈ O(n) et A=OS. L’unicité est assurée car S est déterminée par A et O=A S^{-1}.

I.C.3) Déterminer les matrices O et S lorsque A = \begin{pmatrix} 3 & 0 & -1 \\ \sqrt{2}/2 & 3\sqrt{2} & -3\sqrt{2}/2 \\ -\sqrt{2}/2 & 3\sqrt{2} & 3\sqrt{2}/2 \end{pmatrix}.

Tu appliques la méthode de la décomposition polaire : calculer ^tA A, prendre S=(^tA A)^{1/2} puis poser O=A S^{-1}. Le calcul algébrique est un peu lourd mais direct ; pour le détailler pas à pas et voir les expressions explicites de O et S, débloque les corrigés sur Prépa Booster — tu y trouveras la démonstration complète et les matrices calculées.

I.D.1) Montrer que O(n) est une partie compacte de M_n(R).

O(n) est inclus dans l’espace Euclidien M_n(R). Les matrices orthogonales ont des colonnes de norme 1 donc coefficients bornés : O(n) est borné. C’est aussi fermé (limite d’une suite de matrices orthogonales reste orthogonale), donc O(n) est compact par le théorème de Heine–Borel.

I.D.2) Montrer que S^+_n(R) est un fermé de M_n(R).

S^+_n(R), l’ensemble des matrices symétriques positives semi-définies, est fermé car la propriété “x^T M x ≥ 0 pour tout x” est stable par passage à la limite (on peut utiliser la continuité des formes quadratiques et une intersection de fermés). Donc la limite d’une suite de matrices symétriques positives semi-définies reste telle.

I.D.3) Montrer que GL_n(R) est une partie dense de M_n(R).

L’ensemble des matrices inversibles est dense parce que det : M_n(R)→R est une fonction polynomiale continue ; pour une matrice A donnée, si det(A)=0 on peut perturber A par une petite matrice de rang plein pour rendre le déterminant non nul. Concrètement, A+εI est inversible pour tout ε≠0 assez petit. Ainsi GL_n(R) est dense.

I.D.4) Soit A ∈ M_n(R). Montrer qu’il existe un couple (O,S) ∈ O(n) × S^+_n(R) tel que A = OS. Un tel couple est-il unique ?

En approchant A par des matrices inversibles A_k → A, on applique la décomposition polaire A_k=O_k S_k puis on prend la limite (compacité de O(n) et fermeture de S^+). On obtient A=OS avec O ∈ O(n), S ∈ S^+_n(R). L’unicité n’est pas assurée si S est singulière : si S ∈ S^{++} la décomposition est unique, mais si S n’est que semi-définie positive l’orthogonale sur Ker S peut agir et O n’est plus unique.

I.E) Soit φ l’application de O(n)×S^{++}_n(R) dans GL_n(R) définie par φ(O,S)=OS. Montrer que φ est bijective, continue et que sa réciproque est continue.

C’est la version globale de la décomposition polaire : on montre existence et unicité de (O,S) pour tout A∈GL_n(R), donc φ est bijective. La continuité provient de l’expression S=(^tA A)^{1/2} et O=A S^{-1} : ces opérations sont continues sur GL_n(R) et S^{++}, d’où φ et φ^{-1} sont continues (en fait différentiables). Ainsi φ est un homéomorphisme entre O(n)×S^{++}_n(R) et GL_n(R).

II.A.1) Justifier que ^tA = U(^tB)U^{-1}.

Si A=U B U^{-1} avec U orthogonale alors en transposant A on obtient ^tA = ^t(U^{-1}) ^tB ^tU. Mais pour U orthogonale ^tU=U^{-1} et ^t(U^{-1})=U, d’où ^tA = U ^tB U^{-1}. C’est la simple manipulation de la transposition en présence d’une matrice orthogonale.

II.A.2.a) Montrer qu’il existe μ ∈ R tel que X + μ Y ∈ GL_n(R).

Considère p(μ)=det(X+μ Y), c’est un polynôme en μ qui n’est pas identiquement nul sauf cas pathologique. Les zéros de p sont en nombre fini ; il suffit de choisir μ différent d’un de ces zéros pour que X+μ Y soit inversible. Ainsi un tel μ existe (presque tous les μ conviennent).

II.A.2.b) Montrer que AX = XB et AY = YB.

En utilisant les relations définissant X et Y dans l’énoncé (en général X et Y proviennent de commutations liées à A et B et à la décomposition A=U B U^{-1}), on substitue les expressions pour obtenir AX=U(^tB)U^{-1}X=XB, et de même pour Y. La manipulation consiste à utiliser les identités de conjugaison et l’orthogonalité de U pour réorganiser et obtenir AX=XB et AY=YB. (Voir le corrigé détaillé pour la démonstration pas à pas.)

II.A.2.c) Conclure.

Les relations AX=XB et AY=YB montrent que X et Y s’interprètent comme homomorphismes intercalant A et B ; en combinant la linéarité et l’inversibilité d’un certain X+μ Y (voir II.A.2.a) on en déduit la conclusion attendue de l’énoncé (voir le corrigé pour la conclusion exacte selon la question posée).

II.A.3.a) Montrer que BS^2 = S^2 B, puis que BS = SB.

Si S^2 commute avec B et S est définie positive (donc diagonalisable à valeurs propres strictement positives), on peut diagonaliser S dans une base où S^2 est inversible sur chaque sous-espace propre, et l’argument spectral montre que S commute avec B. Formellement, S est un polynôme en S^2 (par interpolation sur le spectre strictement positif), donc si B commute avec S^2 alors il commute aussi avec S.

II.A.3.b) En déduire qu’il existe O ∈ O(n) tel que A = O B^t O.

Si S commute avec B alors S et B se diagonalisent simultanément par une orthogonale Q ; la décomposition A=OS avec S commuting permet de réarranger pour obtenir A=O B^t O (ou une forme analogue selon l’énoncé) : on construit O convenable en combinant l’orthogonale qui diagonalise B et la partie orthogonale initiale. Le détail algébrique est classique et figure dans le corrigé complet.

II.B.1) Montrer que si le système (*) admet une solution dans GL_n(R), alors les valeurs propres de ^tA A appartiennent à l’intervalle [0,1[.

L’hypothèse (structure du système (*)) impose des contraintes de contraction sur A ; si X ∈ GL_n(R) est solution alors on en déduit des inégalités spectrales qui impliquent que pour toute valeur propre μ de ^tA A on a 0 ≤ μ <1 (sinon on obtiendrait une contradiction via les normes ou une contradiction avec l’inversibilité). Le raisonnement se réalise en diagonalisation spectrale et en comparaison des normes/valeurs propres ; voir le corrigé détaillé pour la dérivation proprement dite.

II.B.2.a) Justifier que l’on peut chercher les solutions X de (*) sous la forme X = U H, avec U ∈ O(n) et H ∈ S^{++}_n(R).

C’est la décomposition polaire appliquée à toute matrice inversible X : on peut écrire X=U H avec U orthogonale et H symétrique définie positive. Cette forme est pratique pour transformer (*) en une équation portant essentiellement sur H (symétrique) et U (orthogonale).

II.B.2.b) Déterminer H.

En substituant X=UH dans l’équation on obtient une relation sur H que l’on peut résoudre spectralement (les termes orthogonaux se simplifient). On en déduit explicitement H= (I – ^tA A)^{-1/2} ou une expression analogue issue de la résolution de l’équation matricielle (selon la forme exacte de (*)). La détermination précise est détaillée dans le corrigé complet ; tu peux débloquer les corrigés sur Prépa Booster pour voir le calcul complet et l’expression exacte de H.

II.B.2.c) Montrer l’existence d’une solution X ∈ GL_n(R) de (*) appartenant à GL_n(R).

Une fois H trouvé (positif défini) et si la condition spectrale sur ^tA A (valeurs propres <1) est respectée, on peut choisir U convenable (orthogonale) pour que X=UH satisfasse (*). L’existence revient à combiner la solution H explicite et l’orthogonale U appropriée ; le détail algébrique est dans le corrigé.

III.A) Montrer qu’à x ∈ R fixé, la suite (P_p(x))_{p∈N^*} vérifie une relation linéaire d’ordre 2, que l’on précisera.

Les polynômes P_p satisfont une récurrence à coefficients constants d’ordre 2 issue de la relation caractéristique du problème (souvent P_{p+1}(x) = (2-x) P_p(x) – P_{p-1}(x) ou une forme voisine selon définition). Il s’agit de montrer la relation récurrente exacte à partir de la définition des P_p ; le principe est de projeter sur la famille de Chebyshev/relations trigonométriques.

III.B) Soit x ∈ R tel que |2-x| < 2. Après avoir justifié l’existence d’un unique θ ∈ ]0, π[ tel que 2-x = 2 cosθ, déterminer P_p(x) en fonction de sin((p + 1)θ) et de sinθ.

Si |2-x|<2 on peut poser 2-x=2\\cosθ avec θ∈]0,π[, unique. La récurrence d’ordre 2 conduit à l’expression par les fonctions trigonométriques : P_p(x)=\\dfrac{\\sin((p+1)θ)}{\\sinθ}. C’est la formule classique issue de la relation de récurrence des polynômes de Chebyshev de la deuxième espèce.

III.C) Déterminer les valeurs propres de A_p.

Les valeurs propres de A_p s’expriment en fonction des racines de l’équation caractéristique liée à la récurrence ; en pratique on obtient des valeurs de la forme 2-2\\cos\\frac{k\\pi}{p+1} ou analogues selon la normalisation. Le calcul passe par l’utilisation des expressions trigonométriques de P_p et la diagonalisation par vecteurs sinus (modes discrets). Voir le corrigé pour l’énonciation exacte et la liste ordonnée des valeurs propres.

III.D) Montrer que A_p est diagonalisable, et en déterminer une base de vecteurs propres, en précisant pour chacun la valeur propre associée.

A_p est symétrique réelle (ou réalisable comme matrice de Toeplitz tridiagonale), donc diagonalisable orthogonalement. Une base de vecteurs propres est donnée par les vecteurs v^{(k)} avec composantes sin( jkπ/(p+1) ), k=1..p, qui correspondent à la valeur propre λ_k=2-2\\cos(kπ/(p+1)) (ou la forme exacte selon la définition de A_p). Le procédé est standard : modes sinusoïdaux pour matrices tridiagonales.

IV.A) Montrer qu’il existe une unique matrice A ∈ M_n(R) telle que ∀ M ∈ M_n(R), f(M) = Tr(AM).

L’application f est linéaire sur l’espace vectoriel M_n(R) de dimension n^2 ; choisir la base canonique E_{ij} (matrices unité) et poser a_{ij}=f(E_{ji}) donne la matrice A=(a_{ij}). Alors pour tout M, Tr(AM)=∑_{i,j} a_{ij} m_{ji}=f(M). L’unicité résulte du fait que si Tr(AM)=0 pour tout M alors A=0. C’est l’isomorphisme naturel entre M_n et son dual via la trace.

IV.B.1) Justifier l’existence de M_n = sup{f(O), O ∈ O(n)}.

O(n) est compact et f est continue (forme linéaire restreinte), donc f atteint son maximum sur O(n). En particulier le supremum existe et est un maximum.

IV.B.2) Justifier que ^tA A admet n valeurs propres positives μ_1, …, μ_n comptées avec multiplicités.

La matrice ^tA A est symétrique positive semi-définie ; si A provient de la représentation de f et que l’on concerne le maximum on se retrouve souvent avec ^tA A inversible, mais en général ^tA A admet n valeurs propres réelles non négatives ; on écrit μ_i ≥ 0 et on les compte avec multiplicité algébrique. Si l’énoncé impose positivité stricte alors μ_i>0 pour tout i.

IV.B.3) Montrer que M_n = sup{Tr(DΩ), Ω ∈ O(n)}, où D est la matrice diagonale, dont les éléments diagonaux sont √μ_1, …, √μ_n.

Par décomposition polaire A=OS avec S=(^tA A)^{1/2} on a f(O)=Tr(AO’)=Tr(OSO’)=Tr(SO’O) et en diagonalisation orthogonale S=K^T D K, on ramène le maximum à Tr(DΩ) avec Ω=K O’ K^T ∈ O(n). Ainsi le supremum recherché s’exprime comme annoncé. C’est la réduction à une matrice diagonale positive par conjugaison orthogonale.

IV.B.4) En déduire que M_n = ∑_{k=1}^n √μ_k.

Le maximum de Tr(DΩ) sur Ω∈O(n) s’obtient en alignant les vecteurs propres, et vaut la somme des diagonales de D, c’est-à-dire ∑_k √μ_k. Donc M_n = ∑_{k=1}^n √μ_k. C’est la somme des valeurs singulières de A.

IV.C.1) Déterminer la matrice A telle que ∀ M ∈ M_n(R), f(M) = Tr(AM).

Applique la méthode de la question IV.A : prends la base E_{ij} et calcule a_{ij}=f(E_{ji}). Dans l’exercice concret on obtient une matrice A explicitement construite (les coefficients a_{ij} donnés par l’action de f sur les matrices canoniques). Pour voir la matrice A précise, consulte le corrigé complète en débloquant les corrigés.

IV.C.2) Montrer que A^{-1} = \begin{pmatrix} 1 & -1 & 0 & \cdots & 0\\ 0 & 1 & -1 & \\ & & \ddots & \ddots & \\ & & & 1 & -1 \\ 0 & \cdots & 0 & 0 & 1 \end{pmatrix}.

Il suffit de vérifier que la matrice donnée B satisfait AB=I (ou BA=I). On calcule le produit et on montre que les sommes de produits de coefficients donnent la matrice identité. La vérification directe est un simple calcul matriciel. Pour le détail des multiplications, débloque le corrigé complet.

IV.C.3) Déterminer les valeurs propres de A^{-1} {}^tA^{-1}.

A^{-1}{}^tA^{-1} est symétrique positive ; ses valeurs propres sont les carrés des valeurs singulières de A^{-1}, donc inverses des carrés des valeurs singulières de A. En pratique, on diagonalise A^{-1}{}^tA^{-1} par transformée de Fourier discrète implicite pour obtenir les valeurs explicites (voir corrigé complet pour la liste exacte des valeurs propres et leur justification).

IV.C.4) Montrer que M_n = ∑_{k=1}^n \frac{1}{2 \cos\frac{k\pi}{2n+1}}.

En identifiant les valeurs propres de A^{-1}{}^tA^{-1} et en utilisant la formule de IV.B qui exprime M_n comme somme des racines carrées des valeurs propres de ^tA A, on aboutit à l’expression indiquée. Le calcul fait intervenir les valeurs propres explicites liées à des arguments trigonométriques ; tu trouveras le développement complet et les simplifications dans le corrigé détaillé.

IV.C.5) Donner un équivalent de M_n lorsque n tend vers +∞.

En utilisant l’expression trigonométrique M_n = ∑_{k=1}^n \frac{1}{2\cos( k\pi/(2n+1))} et un passage à l’intégrale (approximation de Riemann), on montre que M_n croît comme C n pour une constante C>0 (ou donne un équivalent précis selon la somme exacte). Le calcul détaillé et l’obtention de l’équivalent asymptotique se trouvent dans le corrigé complet. Si tu veux l’équivalent précis, débloque les corrigés sur Prépa Booster pour accéder à la démonstration pas à pas et au tableau asymptotique.