Questions du sujet
1. Montrer que pour toute base orthonormée $(e_1,e_2,\ldots,e_n)$ de $\mathbb{R}^n$, on a la formule $\mathrm{tr}(A) = \sum_{i=1}^n \langle Ae_i, e_i \rangle$. 2. Montrer que l’application $(A,B) \mapsto \mathrm{tr}( {}^t\!A B)$ définit un produit scalaire sur $M_n(\mathbb{R})$, noté $\langle \ ,\ \rangle$. 3. Si $A$ et $B$ sont symétriques réelles positives, montrer que $\langle A,B \rangle \geq 0$. On pourra utiliser une base orthonormée de vecteurs propres de $B$. 4. Montrer que ${}^t\!A A$ est une matrice symétrique réelle positive. Exprimer $\|A\|_2$ en fonction des valeurs propres de ${}^t\!A A$. 5. Montrer qu’il existe un endomorphisme auto-adjoint positif $h$ de $E$ tel que $f^* \circ f = h^2$.} 6. Montrer que la restriction de $h$ à $\mathrm{Im}\ h$ induit un automorphisme de $\mathrm{Im}\ h$. On notera cet automorphisme $\widetilde{h}$. 7. Montrer que $\|h(x)\| = \|f(x)\|$ pour tout $x \in E$. En déduire que $\ker h$ et $(\mathrm{Im}\ f)^\perp$ ont même dimension et qu’il existe un isomorphisme $v$ de $\ker h$ sur $(\mathrm{Im}\ f)^\perp$ qui conserve la norme. 8. À l’aide de $\widetilde{h}$ et $v$, construire un automorphisme orthogonal $u$ de $E$ tel que $f = u \circ h$. 9. En déduire que toute matrice $A \in M_n(\mathbb{R})$ s’écrit sous la forme $A = US$, où $U \in O_n(\mathbb{R})$ et $S$ est une matrice symétrique positive. On admet que si $A$ est inversible, cette écriture est unique. 10. Montrer qu’il existe un unique $h_0 \in H$ tel que $d(x,H) = \|x-h_0\|$. On pourra utiliser pour $h_0,h_1$ dans $H$ la fonction définie pour tout $t \in \mathbb{R}$ par la formule $q(t) = \|x – th_0 – (1-t) h_1\|^2$.} 11. Montrer que $h_0$ est caractérisé par la condition $\langle x – h_0, h – h_0\rangle \leq 0$ pour tout $h \in H$. On pourra utiliser la même fonction $q(t)$ qu’à la question précédente. 12. Montrer que l’enveloppe convexe $\mathrm{conv}(H)$ d’une partie $H$ de $E$ est constituée des combinaisons convexes d’éléments de $H$. 13. Montrer qu’il existe $p$ réels non tous nuls $\mu_1,\mu_2,\ldots,\mu_p$ tels que $\sum_{i=1}^p \mu_i x_i = 0$ et $\sum_{i=1}^p \mu_i = 0$. On pourra considérer la famille $(x_2 – x_1, x_3 – x_1, \ldots, x_p – x_1)$. 14. En déduire que $x$ s’écrit comme combinaison convexe d’au plus $p-1$ éléments de $H$ et conclure que $\mathrm{conv}(H)$ est constituée des combinaisons convexes d’au plus $n+1$ éléments de $H$. On pourra considérer une suite de coefficients de la forme $\lambda_i – \theta \mu_i \geq 0$, $i \in \{1,2,\ldots,p\}$ pour un réel $\theta$ bien choisi. 15. Si $H$ est une partie compacte de $E$, montrer que $\mathrm{conv}(H)$ est compacte. On pourra introduire l’ensemble compact de $\mathbb{R}^{n+1}$ défini par $\Lambda = \{ (t_1,\ldots,t_{n+1}),\ \text{avec } t_i \geq 0\ \forall i \in \{1,\ldots,n+1\} \text{ et } \sum_{i=1}^{n+1} t_i = 1 \}$.} 16. Montrer que l’enveloppe convexe $\mathrm{conv}(O_n(\mathbb{R}))$ est compacte. 17. Montrer que $\mathrm{conv}(O_n(\mathbb{R}))$ est contenue dans $B$. 18. Montrer que pour tout $V \in \mathrm{conv}(O_n(\mathbb{R}))$, $\mathrm{tr}(AV) \leq \mathrm{tr}(AN) < \mathrm{tr}(AM)$. En déduire que $\mathrm{tr}(S) < \mathrm{tr}(U S M)$. 19. Montrer que $\mathrm{tr}(MU S) \leq \mathrm{tr}(S)$. On pourra appliquer le résultat de la question 1). 20. Conclure : déterminer $\mathrm{conv}(O_n(\mathbb{R}))$.} 21. On suppose que $U \in O_n(\mathbb{R})$ s’écrit sous la forme $U = \frac{1}{2}(V + W)$, avec $V,W$ appartenant à $B$. Montrer que pour tout $X \in \mathbb{R}^n$, les vecteurs $VX$ et $WX$ sont liés. En déduire que $U$ est extrémal dans $B$. 22. Soit $A$ appartenant à $B$ mais n’appartenant pas à $O_n(\mathbb{R})$. Montrer que l’on peut écrire $A$ sous la forme $A=PDQ$, où $P$ et $Q$ sont deux matrices orthogonales et où $D$ est une matrice diagonale dont les éléments diagonaux $d_1,d_2,\ldots,d_n$ sont positifs ou nuls. 23. Montrer que $d_i \leq 1$ pour tout $i \in \{1,2,\ldots,n\}$, et qu’il existe $j \in \{1,2,\ldots,n\}$ tel que $d_j < 1$. 24. En déduire qu’il existe deux matrices $A_\alpha$ et $A_{-\alpha}$ appartenant à $B$ telles que $A = \frac{1}{2}(A_\alpha + A_{-\alpha})$. Conclure.}FAQ
C’est une conséquence directe de la définition de la trace ! Dans une base orthonormée, la trace est la somme des coefficients diagonaux. Or, ⟨Ae_i, e_i⟩ n’est autre que le coefficient diagonal a_ii de la matrice A dans cette base. Donc en sommant sur tous les vecteurs de la base, tu retrouves bien la trace.
Parce qu’elle vérifie toutes les propriétés d’un produit scalaire ! La symétrie vient de la trace, la linéarité est évidente, et la positivité découle du fait que tr(ᵗAA) = ∑a_ij² ≥ 0, avec égalité si et seulement si A = 0. C’est un résultat fondamental en algèbre linéaire pour les espaces de matrices.
En utilisant une base de vecteurs propres pour B ! Comme B est symétrique positive, tu peux écrire A et B dans une base où B est diagonale avec des valeurs propres positives. Le produit scalaire devient alors une somme de termes positifs, donc lui-même positif. C’est une astuce classique pour ce genre de problème.
Parce que ᵗ(ᵗAA) = ᵗAᵗᵗA = ᵗAA, donc elle est symétrique. Et pour tout vecteur x, ⟨ᵗAAx, x⟩ = ⟨Ax, Ax⟩ = ||Ax||² ≥ 0, donc elle est positive. C’est la matrice qui intervient dans la définition de la norme 2 d’une matrice, liée à ses valeurs propres.
C’est une conséquence de la décomposition polaire ! Comme f*∘f est auto-adjoint positif, tu peux prendre h = √(f*∘f), où la racine carrée est bien définie pour les endomorphismes positifs. C’est un résultat clé en algèbre linéaire pour les applications aux matrices.
Parce que h est auto-adjoint ! Son image et son noyau sont orthogonaux, donc h est injective sur Im h. Comme c’est un endomorphisme d’un espace de dimension finie, c’est donc un automorphisme. C’est une propriété importante des endomorphismes auto-adjoints.
En utilisant le théorème du rang ! Comme ||h(x)|| = ||f(x)||, les noyaux de h et f sont isomorphes. Or, (Im f)⊥ est isomorphe à ker f*. Mais comme f et f* ont même rang, leurs noyaux ont même dimension. C’est un raisonnement typique en algèbre linéaire.
C’est la décomposition polaire ! Tu définis u sur Im h comme u = f∘h⁻¹ (où h⁻¹ est l’inverse de la restriction de h à Im h), et tu l’étends à ker h en utilisant l’isomorphisme avec (Im f)⊥. Comme u préserve la norme, c’est un automorphisme orthogonal. C’est un résultat fondamental en algèbre linéaire.
En appliquant la décomposition polaire à l’endomorphisme associé ! La matrice S est la matrice de h dans une base orthonormée, et U est la matrice de u dans cette même base. Comme u est orthogonal, U est une matrice orthogonale. C’est une généralisation importante de la décomposition polaire.
En utilisant la stricte convexité de la norme ! La fonction q(t) = ||x – th₀ – (1-t)h₁||² est convexe et atteint son minimum en t = 0 si h₀ est le projeté. L’unicité vient de la stricte convexité. C’est un résultat classique d’analyse convexe.
Par l’inégalité variationnelle ! Le projeté h₀ est caractérisé par ⟨x – h₀, h – h₀⟩ ≤ 0 pour tout h dans H. C’est une conséquence directe de la convexité et de la définition du projeté. C’est une caractérisation très utile en optimisation.
Par définition même de l’enveloppe convexe ! C’est le plus petit ensemble convexe contenant H, donc tout élément s’écrit comme combinaison convexe d’éléments de H. C’est un résultat fondamental en analyse convexe.
En utilisant le théorème de Carathéodory ! Considère la famille (x₂ – x₁, …, x_p – x₁). Comme p > n+1, cette famille est liée, donc il existe des coefficients non tous nuls tels que ∑λ_i(x_i – x₁) = 0. En posant μ₁ = -∑λ_i et μ_i = λ_i pour i ≥ 2, tu obtiens le résultat.
En utilisant le théorème de Carathéodory ! Si x est combinaison convexe de p points, avec p > n+1, tu peux trouver des coefficients μ_i non tous nuls tels que ∑μ_i x_i = 0 et ∑μ_i = 0. En ajustant les coefficients λ_i avec un paramètre θ bien choisi, tu peux annuler l’un des coefficients et réduire le nombre de points.
En utilisant la continuité de l’application qui à (t₁, …, t_{n+1}, x₁, …, x_{n+1}) associe ∑t_i x_i ! Comme Λ × H^{n+1} est compact, son image par cette application l’est aussi. C’est une conséquence du théorème des bornes atteintes.
Parce que Oₙ(ℝ) est compact et que l’enveloppe convexe d’un compact est compacte ! C’est une conséquence directe du résultat précédent. De plus, comme Oₙ(ℝ) est borné, son enveloppe convexe l’est aussi.
Par convexité de la boule unité ! Comme toute matrice orthogonale a une norme subordonnée égale à 1, et que la boule unité est convexe, toute combinaison convexe de matrices orthogonales est dans la boule unité. C’est une conséquence directe des propriétés des normes matricielles.
En utilisant la linéarité de la trace ! Comme V est combinaison convexe de matrices orthogonales, tr(AV) est combinaison convexe des tr(AU) pour U orthogonale. Le maximum est donc atteint pour une matrice orthogonale, d’où l’inégalité.
En utilisant la décomposition polaire et les propriétés des matrices orthogonales ! Comme U est orthogonale, tr(MUS) = tr(USM). Mais comme US est une matrice quelconque, sa trace est majorée par celle de S, qui est la norme nucléaire de A. C’est un résultat subtil qui utilise plusieurs propriétés des matrices.
En utilisant les résultats précédents ! Comme les matrices orthogonales sont les points extrémaux de la boule unité pour la norme nucléaire, et que leur enveloppe convexe est incluse dans la boule unité, on conclut que conv(Oₙ(ℝ)) est exactement la boule unité pour cette norme. C’est un résultat profond qui relie géométrie et algèbre linéaire.
En utilisant la stricte convexité de la norme ! Si VX et WX sont liés pour tout X, alors V et W sont proportionnelles. Mais comme elles sont dans B, elles doivent être égales à U. Donc U ne peut pas s’écrire comme combinaison convexe non triviale d’éléments de B, c’est donc un point extrémal.
En utilisant la décomposition en valeurs singulières ! Comme A est dans la boule unité, ses valeurs singulières sont ≤ 1. Tu peux donc écrire A = PDQ où P et Q sont orthogonales et D est diagonale avec des coefficients ≤ 1. C’est une généralisation de la décomposition polaire.
Par définition de la boule unité ! Comme A est dans B, sa norme nucléaire est ≤ 1. Or, la norme nucléaire est la somme des valeurs singulières, qui sont les d_i. Donc chaque d_i est ≤ 1. C’est une conséquence directe des propriétés des normes matricielles.
En utilisant la décomposition PDQ ! Tu peux définir A_α = P D_α Q où D_α est diagonale avec des coefficients d_i + α_i, et A_{-α} avec d_i – α_i, où α_i est bien choisi pour que les coefficients restent dans [0,1]. Comme A est combinaison convexe de A_α et A_{-α}, ce n’est pas un point extrémal.