Questions du sujet
1. I.A.1) D\’emontrer que si deux matrices de $E$ sont semblables, elles ont m\^{e}me trace et m\^{e}me polyn\^{o}me caract\’eristique. La r\’eciproque est-elle vraie ? Justifier la r\’eponse. 2. I.A.2) D\’emontrer que $\Phi : (M_1, M_2) \mapsto \operatorname{Tr}(^{t}M_1 M_2)$ d\’efinit un produit scalaire sur $E$. Pour la suite du probl\`eme, $E$ pourra \^{e}tre muni de la norme associ\’ee \`a ce produit scalaire. 3. I.A.3) D\’emontrer que, pour toute matrice $M \in E$, on a $|\det(M)| \leq \frac{1}{2} \operatorname{Tr}(^{t}M M)$.\\ Quand y a-t-il \’egalit\’e ? 4. I.A.4) Pour $M \in E$ et $x \in \mathbb{R}$, exprimer $\chi_M (x)$ en fonction de $x$, $\operatorname{Tr}(M)$ et $\det(M)$.\\ En conclure que $1$ est une valeur propre de $M$ si, et seulement si,\\ $\operatorname{Tr}(M) = 1 + \det(M)$. 5. I.B.1) Si $\theta \in \mathbb{R}$, on pose $P(\theta) = \begin{pmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{pmatrix}$ et $\varphi(\theta) = \operatorname{Tr}(M P(\theta))$.\\ D\’emontrer que $\varphi$ est une application born\’ee de $\mathbb{R}$ dans $\mathbb{R}$ et qu’il existe $\theta_1 \in \mathbb{R}$ en lequel $\varphi$ atteint son maximum. En choisissant alors un tel $\theta_1$ et en consid\’erant $\varphi'(\theta_1)$, d\’emontrer que $M P(\theta_1)$ est une matrice sym\’etrique.} 6. I.B.2) En d\’eduire que $M \in E$ peut se mettre sous la forme $P(t_1) D P(t_2)$, o\`u $(t_1, t_2) \in \mathbb{R}^2$ et o\`u $D$ est une matrice diagonale de $E$.\\\textit{Remarque : on a \’etabli que toute matrice $M \in E$ peut se mettre sous la forme $M = UDV$, o\`u $D$ est diagonale et $U$, $V$ orthogonales.} 7. I.B.3) Exemple~: d\’ecomposer la matrice $M_0 = \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix}$ sous la forme $P(t_1) D P(t_2),$ o\`u $(t_1, t_2) \in \mathbb{R}^2$. 8. I.C) Soit $A \in E$, $U$ et $V$ des matrices orthogonales d’ordre $2$ et $B = U A V$.\\D\’emontrer que $^{t}A A$ et $^{t}B B$ sont semblables. 9. II.A) Reformuler la d\’efinition de $R$ en utilisant la notion de norme subordonn\’ee. 10. II.B.1) Si $M = \begin{pmatrix} a & b \\ c & d \end{pmatrix} \in R$, d\’emontrer que $(a, b, c, d)$ appartient $[-1, 1]^4$.\\D\’emontrer que $R$ est un compact de $E$.\\Si $(M_1, M_2) \in E^2$, on d\’efinit le segment $[M_1 M_2]$ comme l’ensemble des matrices de la forme $(1-t)M_1 + t M_2$, o\`u $t$ d\’ecrit $[0,1]$.} 11. II.B.2) D\’emontrer que $R$ est aussi un convexe de $E$, c’est-\`a-dire que, si $M_1$ et $M_2$ sont deux matrices de $R$, le segment $[M_1 M_2]$ est inclus dans $R$. 12. II.C.1) D\’emontrer que $M \in R \iff \forall X \in \mathbb{R}^2,\, ^t X ^t M M X \leq ^t X X$. 13. II.C.2)\\a) Si $M \in E$, justifier le fait que le polyn\^ome caract\’eristique de $^{t}M M$ est de la forme $(x – \lambda_1)(x-\lambda_2)$, avec $\lambda_1$ et $\lambda_2$ r\’eels.\\D\’emontrer ensuite que ces r\’eels sont positifs ou nuls.\\On pourra consid\’erer des expressions de la forme $^t X ^t M M X$.\\b) D\’emontrer que $M \in R$ si, et seulement si, les valeurs propres de $^t M M$ appartiennent \`a $[0,1]$. 14. II.D) D\’eduire en particulier de II.C.2.a que\\ $M \in R \iff \begin{cases} \operatorname{Tr}(^{t}M M) \leq 1 + (\det(M))^2 \\ \operatorname{Tr}(^{t}M M) \leq 2 \end{cases}$ 15. II.E.1) En reprenant les calculs de II.C.2.a, d\’emontrer que $M$ appartient \`a $S$ si, et seulement si, le polyn\^{o}me caract\’eristique de $^{t}M M$ est de la forme $(x-\lambda)(x-1)$, o\`u $\lambda \in [0,1]$.} 16. II.E.2) Si $M\in E$, on l’\’ecrit sous la forme $M = P(t_1) D P(t_2)$, o\`u $(t_1, t_2) \in \mathbb{R}^2$ et o\`u $D = \begin{pmatrix} \alpha & 0 \\ 0 & \beta \end{pmatrix}$ avec $\alpha \leq \beta$ et $\beta > 0$.\\a) D\’eterminer les valeurs propres de $^{t}M M$ en fonction de $\alpha$ et $\beta$.\\b) D\’emontrer que $M \in S$ si, et seulement si, il existe $U$ et $V$, matrices orthogonales d’ordre $2$ et $\gamma \in [-1, 1]$ tels que $M = U \begin{pmatrix} \gamma & 0 \\ 0 & 1 \end{pmatrix} V$. 17. II.E.3) En d\’eduire que, si $M$ est une matrice non orthogonale de $S$, il existe des matrices orthogonales $W$ et $W_0$ d’ordre $2$ telles que $M$ appartienne au segment $[W W_0]$.\\On pourra montrer d’abord que si $M$ est de la forme $\begin{pmatrix} \gamma & 0 \\ 0 & 1 \end{pmatrix}$, avec $\gamma \in ]-1, 1[$, on peut choisir $W$ et $W_0$ orthogonales et diagonales telles que $M$ appartienne au segment $[W W_0]$. 18. II.F.1) D\’emontrer que $E_1$ et $E_2$ sont deux sous-espaces vectoriels suppl\’ementaires de $E$ orthogonaux au sens du produit scalaire $\Phi$ d\’efini en I.A.2. 19. II.F.2) D\’emontrer que $E_1$ contient toutes les matrices orthogonales d’ordre $2$ et de d\’eterminant $+1$ et que $E_2$ contient toutes les matrices orthogonales d’ordre $2$ et de d\’eterminant $-1$. 20. II.F.3) Lorsque $M$ est une matrice non orthogonale de $S$, d\’eduire de ce qui pr\’ec\`ede le nombre de segments $[W W_0]$ — o\`u $W$ et $W_0$ sont orthogonales — contenant $M$.} 21. III.A.1) Si $M = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$, d\’emontrer que $M \in S$ implique\\ $a^2 + b^2 + c^2 + d^2 = 1 + (ad-bc)^2$\\On d\’esigne par $H$ l’ensemble des matrices $M \in E$ v\’erifiant cette derni\`ere relation. 22. III.A.2)\\a) R\’eciproquement, \`a quelle condition, v\’erifi\’ee par son d\’eterminant, une matrice $M \in H$ appartient-elle \`a $S$ ?\\b) D\’emontrer qu’une matrice $M \in H$ appartient \`a $S$ si et seulement si $\operatorname{Tr}(^{t}M M) \leq 2$. 23. III.B.1) Si $(A, B) \in E_1 \times E_2$, calculer $\det(A+B)$ en fonction de $\det(A)$ et de $\det(B)$.\\Si $(M_1, M_2) \in E^2$, avec $M_1 \neq M_2$ on d\’efinit la droite affine $(M_1 M_2)$ comme l’ensemble des matrices de la forme $(1-t)M_1 + tM_2$, o\`u $t$ d\’ecrit $\mathbb{R}$. Dans la suite, on l’appellera droite $(M_1 M_2)$. 24. III.B.2) D\’emontrer que, si $W$ et $W_0$ sont des matrices orthogonales \’el\’ements de $E$, telles que $\det(W) = +1$ et $\det(W_0) = -1$, la droite $(W W_0)$ est incluse dans $H$.\\R\’eciproquement, $H$ est-elle r\’eunion de droites de cette forme ? 25. IV.A) Si $M \in E$, on rappelle que le polyn\^ome caract\’eristique de $^{t}M M$ est de la forme $(x-\lambda_1)(x-\lambda_2)$, avec $(\lambda_1, \lambda_2)\in \mathbb{R}^2$, $\lambda_1>0$ et $\lambda_2>0$. Pour fixer les id\’ees, on suppose $0\leq \lambda_1\leq \lambda_2$.\\On suppose $M\neq 0$. D\’eterminer en fonction de $\lambda_1$ et $\lambda_2$ le nombre de r\’eels $t$ positifs tels que $tM \in H$. On en trouvera « en g\’en\’eral » deux, et on interpr\’etera les cas particuliers.} 26. IV.B.1) D\’eterminer les matrices orthogonales qui sont dans $P_1$. 27. IV.B.2) Dans cette question, on identifie $M_1(x,y)$ avec le point $(x,y)$ de $\mathbb{R}^2$ muni de son produit scalaire canonique et de son rep\`ere orthonormal canonique. On proc\’edera \`a des identifications analogues dans les questions suivantes.\\a) D\’emontrer que $H \cap P_1$ est la r\’eunion de deux coniques $C_1$ et $C_2$. D\’eterminer $C_1 \cap C_2$.\\b) Repr\’esenter par un dessin $H \cap P_1$ et $S \cap P_1$ dans le plan $P_1$. 28. IV.C) Soit $P_2$ l’ensemble des matrices de la forme $M_2(x, y) = \begin{pmatrix} x & \sqrt{2} \\ x & \sqrt{2} \\ 0 & y \end{pmatrix}$. Soit $(u,v)\in \mathbb{R}^2$~; on ne demande pas de v\’erifier que la relation du III.A.1 implique\\ $M_2(x, y) \in H \cap P_2 \iff x^2 y^2 – 2(x^2+y^2-1) = 0$\\Etudier et repr\’esenter par un dessin $H\cap P_2$ et $S\cap P_2$ dans le plan $P_2$ (on pourra discuter et r\’esoudre l’\’equation par rapport \`a la variable $y$). 29. IV.D.1) D\’emontrer qu’une matrice $M \in S_2$ appartient \`a $H$ si, et seulement si, elle admet une valeur propre \’egale \`a $+1$ ou \`a $-1$.\\On admet qu’une base orthonormale de $S_2$ est $B = (M_1, M_2, M_3)$, avec\\$M_1 = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 & 0 \\ 0 & -1 \end{pmatrix}$, $M_2 = \frac{1}{\sqrt{2}} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}$, $M_3 = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}$. 30. IV.D.2) En \’ecrivant une matrice de $S_2$ sous la forme $x M_1 + y M_2 + z M_3$, d\’ecrire l’ensemble $C_a$ des matrices de $S_2$ admettant le r\’eel donn\’e $a$ comme valeur propre. En d\’eduire une description de $H \cap S_2$.} 31. IV.D.3) Soit $\theta \in \mathbb{R}$ et $N = P(\theta) M(x, y, z) P(\theta)^{-1}$ ; d\’emontrer que c’est une matrice de la forme $M(u, v, w)$ et exprimer $(u, v, w)$ en fonction de $(x, y, z)$.\\ Interpr\’eter certains des r\’esultats de la question IV.D.2. 32. IV.D.4) Repr\’esenter par un dessin $H \cap S_2$ et $S\cap S_2$.}FAQ
L’analyse des matrices (diagonalisation, produits scalaires, sous-espaces et formes quadratiques) est au cœur du programme de maths en PSI et tombe très souvent au concours Centrale. Maîtriser ces notions, c’est être capable non seulement de résoudre des systèmes linéaires complexes mais aussi de manipuler des opérateurs et des transformations qui interviennent partout, aussi bien en maths pures qu’en physique. Ces bases sont indispensables pour aborder sereinement les épreuves écrites.
Il faut impérativement savoir que deux matrices semblables ont le même polynôme caractéristique et la même trace, ce qui a des conséquences fondamentales pour l’étude du spectre, de la diagonalisation ou de la réduction. Cependant, l’inverse n’est pas forcément vrai ! Comprendre ces subtilités, c’est éviter les pièges classiques du concours. Si tu bloques sur ces propriétés ou que tu veux t’entraîner sur des exercices corrigés du sujet Centrale PSI 2006, pense à débloquer l’accès aux corrigés sur Prépa Booster.
Le recours aux normes et aux produits scalaires permet d’introduire une structure géométrique sur les matrices, ce qui est très utile pour comparer, majorer ou étudier les propriétés d’opérateurs (par exemple pour caractériser quand une matrice appartient à un certain ensemble ou pour étudier la compacité ou la convexité d’un ensemble de matrices). Retrouve, en accédant au corrigé détaillé, toutes les astuces pour manipuler ces outils efficacement lors des concours.
La décomposition $M = P(t_1) D P(t_2)$, proche de la forme dite ‘SVD’ (singular value decomposition), permet d’analyser les matrices en les ramenant à des formes plus simples, en exploitant les symétries du problème. Elle est notamment centrale pour comprendre le fonctionnement des transformations orthogonales, la diagonalisation, et les liens géométriques entre matrices. C’est précisément ce genre de technique qui fait la différence entre un candidat moyen et un très bon à l’écrit.
Un ensemble de matrices est convexe si, pour toute paire de matrices de l’ensemble, leur segment est inclus dans l’ensemble ; il est compact s’il est fermé et borné. Ces notions apparaissent dès l’étude géométrique des matrices car elles conditionnent la simple stabilité des ensembles lors d’opérations linéaires. Maîtriser ces propriétés t’évite de perdre du temps sur des justifications ou des contre-exemples durant les épreuves. Pour t’entraîner à les reconnaître, pense à consulter des corrigés détaillés et à travailler sur des fiches ciblées Prépa Booster.
Les valeurs propres et le polynôme caractéristique d’une matrice permettent de déterminer les propriétés fondamentales d’un système linéaire (stabilité, diagonalisation, invariance de certains sous-espaces, etc.). Dans le cadre du concours Centrale PSI, savoir passer rapidement d’une matrice à ses valeurs propres et inversement est indispensable pour traiter les inégalités spectrales, identifier des sous-ensembles remarquables et justifier des propriétés d’optimisation.
Le plus efficace reste de travailler sur des sujets passés d’annales corrigées, de t’entraîner à rédiger proprement, et de croiser corrigés commentés, fiches synthétiques et dashboards personnalisés pour cibler tes points faibles. Sur Prépa Booster, tu peux justement débloquer l’accès aux corrigés intégrals, aux corrections pas à pas et à des statistiques sur tes réussites : la combinaison idéale pour progresser rapidement et consolider tes acquis !