Aller au contenu

Mines Maths 2 MP 2013

pour ajouter aux favoris
pour marquer comme fait

Corrigé de l’épreuve

Accès immédiat aux corrigés

Débloque tous les corrigés des écrits et oraux et optimise ta préparation aux concours.

Débloquer l’accès 🔓

Déjà inscrit ? Connecte-toi ici.

Énoncé de l’épreuve

💡 Si un sujet identique a été utilisé par le concours pour différentes filières, le sujet affiché ci-dessous peut-être celui d'une autre filière. Le contenu reste identique.

Signaler un problème technique avec cet énoncé

Questions du sujet

1. Montrer que pour toute base orthonormée $(e_1,e_2,\ldots,e_n)$ de $\mathbb{R}^n$, on a la formule $\mathrm{tr}(A) = \sum_{i=1}^n \langle Ae_i, e_i \rangle$. 2. Montrer que l’application $(A,B) \mapsto \mathrm{tr}( {}^t\!A B)$ définit un produit scalaire sur $M_n(\mathbb{R})$, noté $\langle \ ,\ \rangle$. 3. Si $A$ et $B$ sont symétriques réelles positives, montrer que $\langle A,B \rangle \geq 0$. On pourra utiliser une base orthonormée de vecteurs propres de $B$. 4. Montrer que ${}^t\!A A$ est une matrice symétrique réelle positive. Exprimer $\|A\|_2$ en fonction des valeurs propres de ${}^t\!A A$. 5. Montrer qu’il existe un endomorphisme auto-adjoint positif $h$ de $E$ tel que $f^* \circ f = h^2$.} 6. Montrer que la restriction de $h$ à $\mathrm{Im}\ h$ induit un automorphisme de $\mathrm{Im}\ h$. On notera cet automorphisme $\widetilde{h}$. 7. Montrer que $\|h(x)\| = \|f(x)\|$ pour tout $x \in E$. En déduire que $\ker h$ et $(\mathrm{Im}\ f)^\perp$ ont même dimension et qu’il existe un isomorphisme $v$ de $\ker h$ sur $(\mathrm{Im}\ f)^\perp$ qui conserve la norme. 8. À l’aide de $\widetilde{h}$ et $v$, construire un automorphisme orthogonal $u$ de $E$ tel que $f = u \circ h$. 9. En déduire que toute matrice $A \in M_n(\mathbb{R})$ s’écrit sous la forme $A = US$, où $U \in O_n(\mathbb{R})$ et $S$ est une matrice symétrique positive. On admet que si $A$ est inversible, cette écriture est unique. 10. Montrer qu’il existe un unique $h_0 \in H$ tel que $d(x,H) = \|x-h_0\|$. On pourra utiliser pour $h_0,h_1$ dans $H$ la fonction définie pour tout $t \in \mathbb{R}$ par la formule $q(t) = \|x – th_0 – (1-t) h_1\|^2$.} 11. Montrer que $h_0$ est caractérisé par la condition $\langle x – h_0, h – h_0\rangle \leq 0$ pour tout $h \in H$. On pourra utiliser la même fonction $q(t)$ qu’à la question précédente. 12. Montrer que l’enveloppe convexe $\mathrm{conv}(H)$ d’une partie $H$ de $E$ est constituée des combinaisons convexes d’éléments de $H$. 13. Montrer qu’il existe $p$ réels non tous nuls $\mu_1,\mu_2,\ldots,\mu_p$ tels que $\sum_{i=1}^p \mu_i x_i = 0$ et $\sum_{i=1}^p \mu_i = 0$. On pourra considérer la famille $(x_2 – x_1, x_3 – x_1, \ldots, x_p – x_1)$. 14. En déduire que $x$ s’écrit comme combinaison convexe d’au plus $p-1$ éléments de $H$ et conclure que $\mathrm{conv}(H)$ est constituée des combinaisons convexes d’au plus $n+1$ éléments de $H$. On pourra considérer une suite de coefficients de la forme $\lambda_i – \theta \mu_i \geq 0$, $i \in \{1,2,\ldots,p\}$ pour un réel $\theta$ bien choisi. 15. Si $H$ est une partie compacte de $E$, montrer que $\mathrm{conv}(H)$ est compacte. On pourra introduire l’ensemble compact de $\mathbb{R}^{n+1}$ défini par $\Lambda = \{ (t_1,\ldots,t_{n+1}),\ \text{avec } t_i \geq 0\ \forall i \in \{1,\ldots,n+1\} \text{ et } \sum_{i=1}^{n+1} t_i = 1 \}$.} 16. Montrer que l’enveloppe convexe $\mathrm{conv}(O_n(\mathbb{R}))$ est compacte. 17. Montrer que $\mathrm{conv}(O_n(\mathbb{R}))$ est contenue dans $B$. 18. Montrer que pour tout $V \in \mathrm{conv}(O_n(\mathbb{R}))$, $\mathrm{tr}(AV) \leq \mathrm{tr}(AN) < \mathrm{tr}(AM)$. En déduire que $\mathrm{tr}(S) < \mathrm{tr}(U S M)$. 19. Montrer que $\mathrm{tr}(MU S) \leq \mathrm{tr}(S)$. On pourra appliquer le résultat de la question 1). 20. Conclure : déterminer $\mathrm{conv}(O_n(\mathbb{R}))$.} 21. On suppose que $U \in O_n(\mathbb{R})$ s’écrit sous la forme $U = \frac{1}{2}(V + W)$, avec $V,W$ appartenant à $B$. Montrer que pour tout $X \in \mathbb{R}^n$, les vecteurs $VX$ et $WX$ sont liés. En déduire que $U$ est extrémal dans $B$. 22. Soit $A$ appartenant à $B$ mais n’appartenant pas à $O_n(\mathbb{R})$. Montrer que l’on peut écrire $A$ sous la forme $A=PDQ$, où $P$ et $Q$ sont deux matrices orthogonales et où $D$ est une matrice diagonale dont les éléments diagonaux $d_1,d_2,\ldots,d_n$ sont positifs ou nuls. 23. Montrer que $d_i \leq 1$ pour tout $i \in \{1,2,\ldots,n\}$, et qu’il existe $j \in \{1,2,\ldots,n\}$ tel que $d_j < 1$. 24. En déduire qu’il existe deux matrices $A_\alpha$ et $A_{-\alpha}$ appartenant à $B$ telles que $A = \frac{1}{2}(A_\alpha + A_{-\alpha})$. Conclure.}

FAQ

Comment montrer que la trace d’une matrice A est égale à la somme des produits scalaires ⟨Ae_i, e_i⟩ pour une base orthonormée ?

C’est une conséquence directe de la définition de la trace ! Dans une base orthonormée, la trace est la somme des coefficients diagonaux. Or, ⟨Ae_i, e_i⟩ n’est autre que le coefficient diagonal a_ii de la matrice A dans cette base. Donc en sommant sur tous les vecteurs de la base, tu retrouves bien la trace.

Pourquoi l’application (A,B) ↦ tr(ᵗAB) définit-elle un produit scalaire sur Mₙ(ℝ) ?

Parce qu’elle vérifie toutes les propriétés d’un produit scalaire ! La symétrie vient de la trace, la linéarité est évidente, et la positivité découle du fait que tr(ᵗAA) = ∑a_ij² ≥ 0, avec égalité si et seulement si A = 0. C’est un résultat fondamental en algèbre linéaire pour les espaces de matrices.

Comment démontrer que le produit scalaire de deux matrices symétriques positives est positif ?

En utilisant une base de vecteurs propres pour B ! Comme B est symétrique positive, tu peux écrire A et B dans une base où B est diagonale avec des valeurs propres positives. Le produit scalaire devient alors une somme de termes positifs, donc lui-même positif. C’est une astuce classique pour ce genre de problème.

Pourquoi ᵗAA est-elle une matrice symétrique positive ?

Parce que ᵗ(ᵗAA) = ᵗAᵗᵗA = ᵗAA, donc elle est symétrique. Et pour tout vecteur x, ⟨ᵗAAx, x⟩ = ⟨Ax, Ax⟩ = ||Ax||² ≥ 0, donc elle est positive. C’est la matrice qui intervient dans la définition de la norme 2 d’une matrice, liée à ses valeurs propres.

Comment construire un endomorphisme auto-adjoint positif h tel que f*∘f = h² ?

C’est une conséquence de la décomposition polaire ! Comme f*∘f est auto-adjoint positif, tu peux prendre h = √(f*∘f), où la racine carrée est bien définie pour les endomorphismes positifs. C’est un résultat clé en algèbre linéaire pour les applications aux matrices.

Pourquoi la restriction de h à Im h est un automorphisme ?

Parce que h est auto-adjoint ! Son image et son noyau sont orthogonaux, donc h est injective sur Im h. Comme c’est un endomorphisme d’un espace de dimension finie, c’est donc un automorphisme. C’est une propriété importante des endomorphismes auto-adjoints.

Comment montrer que ker h et (Im f)⊥ ont même dimension ?

En utilisant le théorème du rang ! Comme ||h(x)|| = ||f(x)||, les noyaux de h et f sont isomorphes. Or, (Im f)⊥ est isomorphe à ker f*. Mais comme f et f* ont même rang, leurs noyaux ont même dimension. C’est un raisonnement typique en algèbre linéaire.

Comment construire un automorphisme orthogonal u tel que f = u∘h ?

C’est la décomposition polaire ! Tu définis u sur Im h comme u = f∘h⁻¹ (où h⁻¹ est l’inverse de la restriction de h à Im h), et tu l’étends à ker h en utilisant l’isomorphisme avec (Im f)⊥. Comme u préserve la norme, c’est un automorphisme orthogonal. C’est un résultat fondamental en algèbre linéaire.

Comment déduire la décomposition A = US pour une matrice quelconque ?

En appliquant la décomposition polaire à l’endomorphisme associé ! La matrice S est la matrice de h dans une base orthonormée, et U est la matrice de u dans cette même base. Comme u est orthogonal, U est une matrice orthogonale. C’est une généralisation importante de la décomposition polaire.

Comment montrer l’existence d’un unique h₀ réalisant la distance à un convexe fermé ?

En utilisant la stricte convexité de la norme ! La fonction q(t) = ||x – th₀ – (1-t)h₁||² est convexe et atteint son minimum en t = 0 si h₀ est le projeté. L’unicité vient de la stricte convexité. C’est un résultat classique d’analyse convexe.

Comment caractériser le projeté h₀ sur un convexe fermé ?

Par l’inégalité variationnelle ! Le projeté h₀ est caractérisé par ⟨x – h₀, h – h₀⟩ ≤ 0 pour tout h dans H. C’est une conséquence directe de la convexité et de la définition du projeté. C’est une caractérisation très utile en optimisation.

Comment montrer que l’enveloppe convexe est constituée de combinaisons convexes ?

Par définition même de l’enveloppe convexe ! C’est le plus petit ensemble convexe contenant H, donc tout élément s’écrit comme combinaison convexe d’éléments de H. C’est un résultat fondamental en analyse convexe.

Comment montrer l’existence de coefficients μ_i non tous nuls tels que ∑μ_i x_i = 0 et ∑μ_i = 0 ?

En utilisant le théorème de Carathéodory ! Considère la famille (x₂ – x₁, …, x_p – x₁). Comme p > n+1, cette famille est liée, donc il existe des coefficients non tous nuls tels que ∑λ_i(x_i – x₁) = 0. En posant μ₁ = -∑λ_i et μ_i = λ_i pour i ≥ 2, tu obtiens le résultat.

Comment réduire le nombre de points dans une combinaison convexe ?

En utilisant le théorème de Carathéodory ! Si x est combinaison convexe de p points, avec p > n+1, tu peux trouver des coefficients μ_i non tous nuls tels que ∑μ_i x_i = 0 et ∑μ_i = 0. En ajustant les coefficients λ_i avec un paramètre θ bien choisi, tu peux annuler l’un des coefficients et réduire le nombre de points.

Comment montrer que l’enveloppe convexe d’un compact est compacte ?

En utilisant la continuité de l’application qui à (t₁, …, t_{n+1}, x₁, …, x_{n+1}) associe ∑t_i x_i ! Comme Λ × H^{n+1} est compact, son image par cette application l’est aussi. C’est une conséquence du théorème des bornes atteintes.

Pourquoi l’enveloppe convexe de Oₙ(ℝ) est-elle compacte ?

Parce que Oₙ(ℝ) est compact et que l’enveloppe convexe d’un compact est compacte ! C’est une conséquence directe du résultat précédent. De plus, comme Oₙ(ℝ) est borné, son enveloppe convexe l’est aussi.

Comment montrer que conv(Oₙ(ℝ)) est inclus dans la boule unité ?

Par convexité de la boule unité ! Comme toute matrice orthogonale a une norme subordonnée égale à 1, et que la boule unité est convexe, toute combinaison convexe de matrices orthogonales est dans la boule unité. C’est une conséquence directe des propriétés des normes matricielles.

Comment comparer tr(AV) et tr(AM) pour V dans conv(Oₙ(ℝ)) ?

En utilisant la linéarité de la trace ! Comme V est combinaison convexe de matrices orthogonales, tr(AV) est combinaison convexe des tr(AU) pour U orthogonale. Le maximum est donc atteint pour une matrice orthogonale, d’où l’inégalité.

Comment montrer que tr(MUS) ≤ tr(S) ?

En utilisant la décomposition polaire et les propriétés des matrices orthogonales ! Comme U est orthogonale, tr(MUS) = tr(USM). Mais comme US est une matrice quelconque, sa trace est majorée par celle de S, qui est la norme nucléaire de A. C’est un résultat subtil qui utilise plusieurs propriétés des matrices.

Comment conclure sur la caractérisation de conv(Oₙ(ℝ)) ?

En utilisant les résultats précédents ! Comme les matrices orthogonales sont les points extrémaux de la boule unité pour la norme nucléaire, et que leur enveloppe convexe est incluse dans la boule unité, on conclut que conv(Oₙ(ℝ)) est exactement la boule unité pour cette norme. C’est un résultat profond qui relie géométrie et algèbre linéaire.

Comment montrer que U est extrémal dans B si U = (V+W)/2 ?

En utilisant la stricte convexité de la norme ! Si VX et WX sont liés pour tout X, alors V et W sont proportionnelles. Mais comme elles sont dans B, elles doivent être égales à U. Donc U ne peut pas s’écrire comme combinaison convexe non triviale d’éléments de B, c’est donc un point extrémal.

Comment décomposer une matrice A de B sous forme PDQ ?

En utilisant la décomposition en valeurs singulières ! Comme A est dans la boule unité, ses valeurs singulières sont ≤ 1. Tu peux donc écrire A = PDQ où P et Q sont orthogonales et D est diagonale avec des coefficients ≤ 1. C’est une généralisation de la décomposition polaire.

Comment montrer que les coefficients diagonaux d_i sont ≤ 1 ?

Par définition de la boule unité ! Comme A est dans B, sa norme nucléaire est ≤ 1. Or, la norme nucléaire est la somme des valeurs singulières, qui sont les d_i. Donc chaque d_i est ≤ 1. C’est une conséquence directe des propriétés des normes matricielles.

Comment construire A_α et A_{-α} pour montrer que A n’est pas extrémal ?

En utilisant la décomposition PDQ ! Tu peux définir A_α = P D_α Q où D_α est diagonale avec des coefficients d_i + α_i, et A_{-α} avec d_i – α_i, où α_i est bien choisi pour que les coefficients restent dans [0,1]. Comme A est combinaison convexe de A_α et A_{-α}, ce n’est pas un point extrémal.